Stephen Hawking: Sztuczna inteligencja może być największym błędem ludzkości

Stephen Hawking ostrzega, że superinteligentne maszyny, które tak bardzo chcemy stworzyć mogą, być... ostatnim wytworem ludzkości.

Niektórzy w rozwoju nowoczesnych technologii widzą zbawienie świata. Wizje gigantów technologii takich jak Samsung czy Microsoft przedstawiają przyszłość naszpikowaną elektroniką przyjazną człowiekowi.

Samosterujące się samochody Google, inteligentne okulary, cyfrowy asystent głosowy, wszechobecny internet, post-pecetowy interfejs - to wciąż wyzwania, z którymi dopiero zaczynamy sobie radzić. Przydatne w życiu codziennym zaawansowanie Cortany z pewnością może nas cieszyć, lecz z punktu widzenia Sztucznej Inteligencji - pisanej wielkimi literami - tego typu rozwiązania to wciąż "niejutro".

Czasy, w których Prawdziwa Inteligencja będzie codziennością, taką jak dzisiaj są smartfony, w końcu jednak nadejdą. Tymczasem Stephen Hawking wraz ze swoimi naukowymi kolegami: Stuartem Russellem, Maxem Tegmarkiem i Frankiem Wilczekiem na łamach brytyjskiego "The Independent" ostrzegają: nie możemy przewidzieć, jakie będą skutki rozwoju sztucznej inteligencji.

Spoglądając w przyszłość, nie dostrzegam fundamentalnych ograniczeń tego, co moglibyśmy osiągnąć.  Nie ma prawa fizyki, ograniczającego zorganizowanie cząstek w sposób, który umożliwi wykonywanie obliczeń o wiele bardziej skomplikowanych od tych, jakie wykonuje ludzki mózg. Ta zmiana może rozegrać się jak w filmie. Choćby tak, jak przedstawił to Irving Good w 1965 - maszyny z superludzką inteligencją, nieustannie ulepszające swoje projekty. Mogłoby to wywołać coś, co Vernor Vinge nazwał "osobliwością technologiczną" [...].

Fot. Doug Wheller/Creative Commons Uznanie autorstwa 2.0

Hawking wspomina Irvinga Gooda, bo ten wybitny brytyjski matematyk o polsko-żydowskich korzeniach był jednym z konsultantów tworzących filmowy komputer HAL 9000 z Odysei Kosmicznej. Good stworzył go na podstawie własnej definicji "osobliwości technologicznej", pojęciu rozwiniętemu przez Vernora Vingea, kolejnego ze wspomnianych.

Chodzi o hipotetyczny punkt w przyszłym rozwoju cywilizacji, w którym postęp techniczny stanie się tak szybki, że wszelkie ludzkie przewidywania staną się nieaktualne. Głównym wydarzeniem, mającym do tego doprowadzić, byłoby stworzenie sztucznych inteligencji przewyższających intelektualnie ludzi. Takie sztuczne inteligencje mogłyby opracowywać jeszcze wydajniejsze sztuczne inteligencje, wywołując lawinową zmianę w technologii.

Hawking wraz pozostałymi autorami artykułu rozważają, czego mogłaby dokonać sztuczna inteligencja.

Można sobie wyobrazić technologię, która przechytrzyłaby rynki finansowe, przerosłaby możliwościami ludzkich wynalazców, wywiodłaby w pole światowych przywódców i stworzyłaby broń, której nie będziemy nawet w stanie zrozumieć. Podczas gdy krótkoterminowy rozwój sztucznej inteligencji zależy od tego, kto ją kontroluje, na dłuższą metę chodzi o to, czy sztuczną inteligencję w ogóle da się kontrolować.

Zatem w obliczu ewentualnych acz nieprzewidywalnych możliwości i zagrożeń eksperci robią, co mogą, by osiągnąć najlepsze rezultaty, prawda? Błąd. Jeśli przeważająca nad nami obca cywilizacja prześle nam wiadomość: "Przybędziemy za kilka dekad", odpowiemy: "Dobrze, dajcie znać, kiedy dotrzecie, zostawimy wam otwarte drzwi"? Prawdopodobnie nie, ale w mniejszym lub większym stopniu właśnie tak postępujemy ze sztuczną inteligencją. Potencjalnie stoimy w obliczu czegoś najlepszego lub najgorszego w historii ludzkości. Niewiele poważnych badań jest poświęconych temu zagadnieniu. [...] Każdy z nas powinien spytać sam siebie, co można zrobić, jeśli chodzi o sztuczną inteligencję, by osiągnąć korzyści, unikając niebezpieczeństw.

Skoro Hawking, jeden z największych umysłów naszych czasów, ostrzega nas przed sztuczną inteligencją, chyba mamy się czego bać. Może nie my, ale nasze dzieci i wnuki. W krótkiej perspektywie wirtualni asystenci i wszechobecna elektronika może ułatwiać nam życie. Ale czy wyobrażacie sobie, że za kilkadziesiąt lat świat zostanie przejęty przez maszyny, których działania nie będziemy nawet w stanie zrozumieć, gdyż powstaną w tajemnicy przed nami, stworzone przez superkomputery, które z taką wiarą w przyszłość dziś projektujemy?

Więcej o:
Komentarze (450)
Stephen Hawking: Sztuczna inteligencja może być największym błędem ludzkości
Zaloguj się
  • robert.kedzierski_technologie

    Oceniono 93 razy 73

    Drodzy Czytelnicy. Bardzo dziękujemy za wysoki poziom dyskusji pod tym materiałem. Wiele celnych i bardzo ciekawych komentarzy!

  • bobbin_threadbare

    Oceniono 32 razy -26

    Hawking wielkim umysłem jest?

    Czemu jest skoro nie jest?

  • losiu4

    Oceniono 17 razy -9

    na szczescie jest jeszcze B óg. Pan Hawking zdecydowanie przecenia to, co czowiek może zrobić :)

    Pozdrawiam

    Losiu

  • split-fire

    Oceniono 10 razy -8

    Łał. Też oglądałem Terminatora, widać, że Pan Hawking nadrabia zaległości filmowe...

  • antybiurokrata

    Oceniono 17 razy -7

    Największym błędem ludzkości to lansowanie różnego rodzaju "ofiar" jako geniuszy i naukowców.

  • res_republika

    Oceniono 10 razy -6

    Przejęcie świata przez maszyny to bzdura. Maszyny mogą nam tylko pomóc. Co widać zresztą na przykładzie pana Hawking'a.

Aby ocenić zaloguj się lub zarejestrujX