Hawking: "Maszyny będą inteligentniejsze od ludzi tak bardzo, jak my - od ślimaków".

Dwa miesiące temu portal Reddit zorganizował sesję AMA z profesorem Stephenem Hawkingiem. Jeden z najznakomitszych umysłów nie zawiódł. Oto najciekawsze pytania i najbardziej zaskakujące odpowiedzi.

Profesor Stephen Hawking, wybitny fizyk, został uczestnikiem kolejnej sesji AMA (Ask Me Anything, z ang. "Spytaj mnie, o co chcesz"). Internauci z całego świata mieli okazję zadać naukowcowi pytania, na które ten, ze względu na stan swego zdrowia, odpowiadał kilka tygodni. Wczoraj udało się nam dowiedzieć, co profesor Hawking sądzi o sztucznej inteligencji i nie tylko.

"Profesorze Hawking, wykładam Nauczanie maszynowe i inteligentną robotykę. [...] Sztuczna inteligencja, wbrew temu co sądzi o niej większość osób, nie ma motywów, nie ma wrażliwości, nie ma złej moralności, a jedynie próbuje zoptymalizować swoje funkcjonowanie według zasad, które zaprojektowaliśmy i zapisaliśmy w kodzie. Pański punkt widzenia jest często prezentowany przez media jako wiara w 'złą sztuczną inteligencją', a nie to jest przesłaniem otwartych listów, które pan podpisywał. Jak zaprezentowałby pan swoje prawdziwe poglądy w tej klasie. Oraz na jakie wartości moralne powinienem przekazać moim studentom zainteresowanym AI?" - spytał jeden z użytkowników Reddita.

Profesor Hawking odpowiedział:

"Media często błędnie przekazują to, co powiedziałem. Realnym zagrożeniem związanym ze sztuczną inteligencją nie jest zła wola, ale brak kompetencji. Superinteligentna AI będzie ekstremalnie skuteczna w osiąganiu celów. A jeśli te cele nie są zbieżne z naszymi, to będziemy mieli kłopoty. Jesteś zapewne osobą, która nie rozdeptuje mrówek, by wyrazić swoją złość. Wyobraźmy sobie jednak, że zostajesz dyrektorem hydroelektrowni, na terenie której znajduje się mrowisko, które zostanie zalane. To źle dla mrówek. Sprawmy, by ludzkość nie znalazła się w ich położeniu. A co do studentów proszę im przekazać, by myśleli nie tylko nad tym jak tworzyć sztuczną inteligencję, ale by byli pewni, że będzie wykorzystana z pożytkiem.

Inny z użytkowników Reddita spytał profesora Hawkinga o to, czy ostrzegając nas przed sztuczną inteligencją, nie przestrzega nas w sumie przed nieuchronną zagładą, która miałaby nadejść wkrótce.

"Naukowcy nie są zgodni co do tego, kiedy sztuczna inteligencja osiągnie poziom ludzkiej lub nawet ją przekroczy. Dlatego nie wierz zarówno tym, którzy twierdzą, że wiedzą, że to stanie się za naszego życia, jak i nie za naszego życia. Kiedy już to nastąpi będzie to najlepszy lub najgorszy moment dla ludzkości, chodzi więc o coś naprawdę ważnego. Powinniśmy przesunąć nasze wysiłki związane z AI z tworzenia czystej sztucznej inteligencji na tworzenie sztucznej inteligencji przynoszącej nam korzyść. Zajmie nam całe dekady wymyślenie tego, dlatego już dziś zacznijmy, zanim naprawdę silna sztuczna inteligencja powstanie".

Hawkingowi chodzi o to, że nie w tej chwili wszelkimi środkami próbujemy wytworzyć potężną sztuczną inteligencję. Powinniśmy natomiast skupić się na tym, by ta inteligencja była tworzona tak, by przynieść nam korzyść.

Profesor rozwiał też wątpliwości kolejnej osoby, która nie wierzy w to, że sztuczna inteligencja może być groźna, bo poziom jej inteligencji nigdy nie przekroczy poziomu inteligencji twórcy.

"Osiągnięcie wyższej inteligencji niż inteligencja twórcy jest bezsprzecznie możliwe. Wyewoluowaliśmy i jesteśmy inteligentniejsi niż nasi małpi przodkowie. A Einstein był mądrzejszy od swoich rodziców. Może się zdarzyć, że sztuczna inteligencja stanie się mądrzejsza od ludzi projektujących sztuczną inteligencję, wtedy będzie mogła ulepszać się bez pomocy człowieka. Jeśli by do tego doszło, będziemy mieli do czynienia z maszynami, których inteligencja przewyższa naszą tak bardzo, jak nasza przewyższa inteligencję ślimaka".

Kolejne ciekawe pytanie zadał biolog, który twierdzi, że strach przed sztuczną inteligencją jest nieuzasadniony, bo nigdy nie będzie ona dążyć do "powielenia się" czy też reprodukcji.

"Ma pan rację, powinniśmy unikać antropomorfizacji i nie zakładać, że sztuczna inteligencja będzie miała te same cele, co żywe organizmy. [...] Jednakże podając za Stevem Omohudrem, ekstremalnie inteligentna sztuczna inteligencja wypracuje metodę przetrwania polegającą na pozyskiwaniu większej ilości zasobów. Będzie tak ponieważ zarówno przetrwanie jak i pozyskanie zasobów zapewni realizację celów. Jakiekolwiek te cele będą. To może stworzyć problemy dla ludzi, których zasoby zostaną przejęte przez sztuczną inteligencję".

Przeczytaj książki wybitnego profesora Stephena Hawkinga >>