Hawking, Musk, Wozniak i 1000 innych naukowców boją się powstania nowego Terminatora. "AI może być groźniejsza, niż broń atomowa"

Ponad 1000 ekspertów, naukowców i badaczy podpisało list otwarty, w którym apelują o zaprzestanie prac nad bronią opartą na sztucznej inteligencji. Czego boją się najpotężniejsze umysły świata?

Sztuczna inteligencja towarzyszy nam na co dzień. Spotykamy ją w zastosowaniach konsumenckich - z jej pomocą działają m.in. wirtualni asystenci w smartfonach, automatyczne rozpoznawanie zdjęć, systemy podpowiadające nam co kupić np. stosowane przez Amazon. Ze sztucznej inteligencji korzystają też służby specjalne i wojsko (algorytmy stosowane przez NSA, drony, autonomiczne systemy wykrywające intruzów takie jak SGR-1 zainstalowany na granicy koreańskiej). Intensywne prace badawcze nad nią prowadzą wszyscy giganci branży technologicznej. Zarówno Google, jak Microsoft i IBM mają własne systemy, które potrafią samodzielnie uczyć się nowych rzeczy i coraz bardziej zaskakują swoimi możliwościami. Wojskowe firmy, takie jak Lockheed Martin, pracują nad własnymi rozwiązaniami.

Ponad 1000 ekspertów, naukowców i badaczy, wśród nich wybitny fizyk Stephen Hawking, właściciel Tesli Elon Musk i współzałożyciel Apple Steve Wozniak, apelują o zaprzestanie prac nad sztuczną inteligencją. Mają jednak na myśli jej specyficzny aspekt - chodzi o sztuczną inteligencję związaną z zastosowaniami militarnymi.

"Broń poza kontrolą człowieka"

W liście otwartym naukowcy alarmują, że broń oparta na sztucznej inteligencji będzie "poza kontrolą człowieka".

"Tak jak większość chemików czy biologów nie ma interesu w tworzeniu broni chemicznej czy biologicznej, większość ekspertów od sztucznej inteligencji nie chce tworzyć tego rodzaju arsenału" - czytamy w dokumencie podpisanym między innymi przez Demisa Hassabisa, jednego z nadzorujących prace Google nad sztuczną inteligencją, cytowanym przez BBC.

Zabijające, autonomiczne roboty

Jaką konkretnie broń mają na myśli protestujący naukowcy? Chodzi o zautomatyzowane, autonomiczne systemy zdolne do niszczenia celów. W tej chwili funkcjonują już podobne urządzenia - wciąż jednak nie podejmują "samodzielnej" działań. Alarmują wojskowych, a decyzję o odpaleniu pocisku czy użyciu karabinu maszynowego podejmują ludzie.

Naukowcy boją się, że autonomiczna broń stanie się "Kałasznikowem jutra" - zabijające automaty sterowane sztuczną inteligencją, potencjalnie przez swoją skuteczność, mogłyby się stać najbardziej powszechną, a zatem najbardziej śmiercionośną bronią świata.

Groźniejsze, niż broń jądrowa

Sygnatariusze listu obawiają się, że "autonomiczne zabijające roboty" mogłyby być groźniejsze od broni nuklearnej. Produkcja nie wymagałaby rzadko występujących materiałów rozszczepialnych, gigantycznych funduszy, sporego zaplecza technicznego. To mogłoby sprawić, że stała by się dostępna dla wielu rządów i armii.

To już się dzieje

New York Times alarmuje, że Wielka Brytania, Izrael, a nawet Norwegia wdrażają już pociski i drony, które są w stanie przeprowadzić atak na wrogie radary, czołgi lub okręty bez bezpośredniej kontroli człowieka.

Amerykanie w zeszłym roku zaprezentowali zrobotyzowane łodzie patrolowe, które są w stanie wykonywać wiele zadań bez ludzkiej ingerencji, da się też sterować nimi zdalnie. System Control Architecture for Robotic Agent Command and Sensing (w skrócie CARACaS) ma być wkrótce na wyposażeniu amerykańskiej armii.

Zautomatyzowane roboty, wyposażone w karabiny, zainstalowano już na granicy koreańskiej.

Na nagraniu powyżej widzimy robota  podoobnego do SGR-1, stworzonego przez Samsunga. Wyposażono go w system wykrywania ludzi (reaguje na ciepło i ruch) i działo maszynowe (5,56mm) oraz granatnik.

System nie jest w stanie samodzielnie "podjąć decyzji" o zlikwidowaniu celu. Kiedy czujniki wykryją obecność wroga system powiadamia wojskowych, a ci zdalnie decydują, czy rozpocząć ostrzał.

W robota wbudowano też głośniki i mikrofon, by ostrzec intruza przed użyciem broni.

SGR-1 zostały rozmieszczone w strefie zdemilitaryzowanej - co około 5 km, na odcinku ok 350 km. Jedno urządzenie kosztuje 200 tys. dol.

Koreańczycy twierdzą, że broń nie jest tak kontrowersyjna, jak się wydaje, bo jej podstawową funkcją jest obrona. Robot strzeże konkretnych miejsc i obiektów. Zaletą robota jest też to, że pozwala chronić koreańskich żołnierzy, którzy nie muszą patrolować rewirów, na których zainstalowano SGR-1.

Fot. Samsung

Terminator nie będzie robotem

Naukowcy boją się powstania nowego Terminatora. Nie będzie on jednak wizualnie przypominał robota znanego z filmowych hitów, nie będzie biegał za celem. Będzie jednak, podobnie jak filmowy "pierwowzór" równie inteligentny i autonomiczny.

Hawking ostrzega: nie mamy szans!

 

FILE - In this April 21, 2008 file photo, Professor Stephen Hawking makes remarks at George Washington University in Washington. President Barack Obama will recognize the accomplishments of actors, activists and athletes on Wednesday when he awards the Presidential Medal of Freedom to 16 people. (AP Photo/Lawrence Jackson, FILE)Fot. Lawrence Jackson AP

 

Jednym z największych przeciwników niekontrolowanych prac nad sztuczną inteligencją jest profesor Stephen Hawking. W zeszłorocznym wywiadzie dla BBC stwierdził:

"Ludzie, którzy są ograniczeni powolną, biologiczną ewolucją, nie mogą konkurować ze sztuczną inteligencja i zostaną wyparci".

W swoim wcześniejszym wystąpieniu, które również opisywaliśmy, stwierdził coś jeszcze bardziej istotnego:

Potencjalnie stoimy w obliczu czegoś najlepszego lub najgorszego w historii ludzkości. Niewiele poważnych badań jest poświęconych temu zagadnieniu. [...] Każdy z nas powinien spytać sam siebie, co można zrobić, jeśli chodzi o sztuczną inteligencję, by osiągnąć korzyści, unikając niebezpieczeństw.

Elon Musk, założyciel PayPal i właściciel firmy Tesla również jest bardzo sceptyczny wobec rozwoju sztucznej inteligencji.

Mam nadzieję, że nie jesteśmy tylko biologicznym programem rozruchowym dla cyfrowej superinteligencji. Niestety wydaje się to być coraz bardziej prawdopodobne. - stwierdził komentując książkę "Superinteligencja" Nicka Bostroma.

Realne zagrożenie?

Świat powinien jak najszybciej wypracować jednolite standardy związane z bronią opartą na sztucznej inteligencji. W najbliższych dziesięciu latach systemy tego rodzaju staną się w pełni gotowe do zastosowania, a zatem komercyjnej sprzedaży. Jeśli sami nie narzucimy sobie ograniczeń "zabijające roboty" mogą stać się przerażającym arsenałem. O wiele potężniejszym niż drony, które już dziś niosą śmierć...

Więcej o niebezpiecznej broni, która wkrótce może stać się standardowym wyposażeniem armii, dowiecie się z tego materiału.

Więcej o: