Hawking: "Maszyny będą inteligentniejsze od ludzi tak bardzo, jak my - od ślimaków".

Dwa miesiące temu portal Reddit zorganizował sesję AMA z profesorem Stephenem Hawkingiem. Jeden z najznakomitszych umysłów nie zawiódł. Oto najciekawsze pytania i najbardziej zaskakujące odpowiedzi.

Profesor Stephen Hawking, wybitny fizyk, został uczestnikiem kolejnej sesji AMA (Ask Me Anything, z ang. "Spytaj mnie, o co chcesz"). Internauci z całego świata mieli okazję zadać naukowcowi pytania, na które ten, ze względu na stan swego zdrowia, odpowiadał kilka tygodni. Wczoraj udało się nam dowiedzieć, co profesor Hawking sądzi o sztucznej inteligencji i nie tylko.

"Profesorze Hawking, wykładam Nauczanie maszynowe i inteligentną robotykę. [...] Sztuczna inteligencja, wbrew temu co sądzi o niej większość osób, nie ma motywów, nie ma wrażliwości, nie ma złej moralności, a jedynie próbuje zoptymalizować swoje funkcjonowanie według zasad, które zaprojektowaliśmy i zapisaliśmy w kodzie. Pański punkt widzenia jest często prezentowany przez media jako wiara w 'złą sztuczną inteligencją', a nie to jest przesłaniem otwartych listów, które pan podpisywał. Jak zaprezentowałby pan swoje prawdziwe poglądy w tej klasie. Oraz na jakie wartości moralne powinienem przekazać moim studentom zainteresowanym AI?" - spytał jeden z użytkowników Reddita.

Profesor Hawking odpowiedział:

"Media często błędnie przekazują to, co powiedziałem. Realnym zagrożeniem związanym ze sztuczną inteligencją nie jest zła wola, ale brak kompetencji. Superinteligentna AI będzie ekstremalnie skuteczna w osiąganiu celów. A jeśli te cele nie są zbieżne z naszymi, to będziemy mieli kłopoty. Jesteś zapewne osobą, która nie rozdeptuje mrówek, by wyrazić swoją złość. Wyobraźmy sobie jednak, że zostajesz dyrektorem hydroelektrowni, na terenie której znajduje się mrowisko, które zostanie zalane. To źle dla mrówek. Sprawmy, by ludzkość nie znalazła się w ich położeniu. A co do studentów proszę im przekazać, by myśleli nie tylko nad tym jak tworzyć sztuczną inteligencję, ale by byli pewni, że będzie wykorzystana z pożytkiem.

Inny z użytkowników Reddita spytał profesora Hawkinga o to, czy ostrzegając nas przed sztuczną inteligencją, nie przestrzega nas w sumie przed nieuchronną zagładą, która miałaby nadejść wkrótce.

"Naukowcy nie są zgodni co do tego, kiedy sztuczna inteligencja osiągnie poziom ludzkiej lub nawet ją przekroczy. Dlatego nie wierz zarówno tym, którzy twierdzą, że wiedzą, że to stanie się za naszego życia, jak i nie za naszego życia. Kiedy już to nastąpi będzie to najlepszy lub najgorszy moment dla ludzkości, chodzi więc o coś naprawdę ważnego. Powinniśmy przesunąć nasze wysiłki związane z AI z tworzenia czystej sztucznej inteligencji na tworzenie sztucznej inteligencji przynoszącej nam korzyść. Zajmie nam całe dekady wymyślenie tego, dlatego już dziś zacznijmy, zanim naprawdę silna sztuczna inteligencja powstanie".

Hawkingowi chodzi o to, że nie w tej chwili wszelkimi środkami próbujemy wytworzyć potężną sztuczną inteligencję. Powinniśmy natomiast skupić się na tym, by ta inteligencja była tworzona tak, by przynieść nam korzyść.

Profesor rozwiał też wątpliwości kolejnej osoby, która nie wierzy w to, że sztuczna inteligencja może być groźna, bo poziom jej inteligencji nigdy nie przekroczy poziomu inteligencji twórcy.

"Osiągnięcie wyższej inteligencji niż inteligencja twórcy jest bezsprzecznie możliwe. Wyewoluowaliśmy i jesteśmy inteligentniejsi niż nasi małpi przodkowie. A Einstein był mądrzejszy od swoich rodziców. Może się zdarzyć, że sztuczna inteligencja stanie się mądrzejsza od ludzi projektujących sztuczną inteligencję, wtedy będzie mogła ulepszać się bez pomocy człowieka. Jeśli by do tego doszło, będziemy mieli do czynienia z maszynami, których inteligencja przewyższa naszą tak bardzo, jak nasza przewyższa inteligencję ślimaka".

Kolejne ciekawe pytanie zadał biolog, który twierdzi, że strach przed sztuczną inteligencją jest nieuzasadniony, bo nigdy nie będzie ona dążyć do "powielenia się" czy też reprodukcji.

"Ma pan rację, powinniśmy unikać antropomorfizacji i nie zakładać, że sztuczna inteligencja będzie miała te same cele, co żywe organizmy. [...] Jednakże podając za Stevem Omohudrem, ekstremalnie inteligentna sztuczna inteligencja wypracuje metodę przetrwania polegającą na pozyskiwaniu większej ilości zasobów. Będzie tak ponieważ zarówno przetrwanie jak i pozyskanie zasobów zapewni realizację celów. Jakiekolwiek te cele będą. To może stworzyć problemy dla ludzi, których zasoby zostaną przejęte przez sztuczną inteligencję".

Przeczytaj książki wybitnego profesora Stephena Hawkinga >>

Więcej o:
Komentarze (121)
Hawking: "Maszyny będą inteligentniejsze od ludzi tak bardzo, jak my - od ślimaków".
Zaloguj się
  • kamil-t

    Oceniono 69 razy 51

    Najprawdopodobniej poruszane tutaj kwestie staną się niezwykle palące w ciągu najbliższych 20-25 lat, może wcześniej. Nie wierzcie za bardzo tym, którzy w przededniu rewolucji mówią "to pieśń jakiejś odległej przyszłości", przypominają autorytety wieszczące "człowiek nigdy nie wyzwoli energii jądra atomu" na kilkanaście lat przed wyzwoleniem.

  • metamizol

    Oceniono 55 razy 43

    Praw­dzi­wa głupo­ta zaw­sze po­kona sztuczną inteligencję (T. Pratchett)

  • revolver83

    Oceniono 75 razy 41

    Bardzo interesujące. Ciekawe co na to Foch.pl, Olga Tokarczuk i Episkopat.

  • somebody_who_i_used_to_know

    Oceniono 27 razy 21

    Oczywiscie jest jeszcze jedna mozliwosc. Zamiast tworzyc nowa sztuczna inteligencje, ludzie moga sztucznie rozwinac swoja wlasna inteligencje, na przyklad poprzez podlaczenie bezposrednio do mozgu sztucznej pamieci albo sztucznych procesorow obliczeniowych. W ten sposob mozna bedzie obejsc ograniczenia biologiczne naszego mozgu (i ciala). Jezeli zrobisz to stopniowo to prawdopodobnie nie stracisz swojej swiadomosci (jest jakies lepsze slowo na consciousness w jezyku polskim?). Pisze "prawdopodobnie" bo nikt nie podal jeszcze przekonywujacej definicji swiadomosci, a wiec utrata swiadomosci tez jest trudna do zdefiniowania. Sprobujcie poczytac "The singularity is near", autor Ray Kurzweil (powinno byc polskie tlumaczenie). Naiwne? Moim zdaniem historia udowadnia, ze bardzo prawdopodobne. Za naszego zycia? Prawdopodobnie nie, no chyba, ze jestescie nastolatkami i oczywiscie pod warunkiem, ze sie wczesniej nie wykonczymy w jakies wojnie nuklearnej, czy katastrofie ekologicznej.

  • maurorossi

    Oceniono 30 razy 12

    @jakis_gosc01
    "Na razie sztuczna inteligencja od lat jest na poziomie karalucha".

    Kup sobie za 200 zł program szachowy Fritz XIII, który na 8 rdzeniowym procesorze ma ranking ok. 3000 ELO (czyli podobnie jak obecny szachowy mistrz świata Carlsen) i spróbuj z nim wygrać. Okaże się, że sorry, ale to ty jesteś na poziomie karalucha.

  • orfy reus

    Oceniono 6 razy 6

    We Are the Borg. You Will be Assimilated. Resistance is Futile

  • Adam Ch

    Oceniono 10 razy 6

    Spytalbym pana profesora Hawkinga dlaczego sztuczna inteligencja, bedac nieskazona naszaa ewolucja, mialaby miec instynkt przetrwania?

  • cozzie

    Oceniono 8 razy 6

    Błąd - AMA zostało zorganizowane przez firmę NOKIA oraz portal WIRED. Reddit to tylko miejsce, gdzie to AMA się odbyło.

  • cojamamwymyslic2

    Oceniono 5 razy 5

    Od 250 lat prawie co roku spalamy coraz więcej paliw kopalnych. W zeszłym roku światowa gospodarka zużyła 5 razy więcej energii niż w roku 1950. Na tym opiera się cała nasza cywilizacja - tylko, że paliwa kopalne są nieodnawialne, a nowe złoża są coraz trudniej dostępne. Dlatego przewidywania dotyczące sztucznej inteligencji i podboju kosmosu powinniśmy zostawić na czas gdy/jeśli uda się znaleźć jakieś lepsze źródło energii niż ropa i węgiel.

Aby ocenić zaloguj się lub zarejestrujX