Stephen Hawking: Sztuczna inteligencja może być największym błędem ludzkości

Stephen Hawking ostrzega, że superinteligentne maszyny, które tak bardzo chcemy stworzyć mogą, być... ostatnim wytworem ludzkości.

Niektórzy w rozwoju nowoczesnych technologii widzą zbawienie świata. Wizje gigantów technologii takich jak Samsung czy Microsoft przedstawiają przyszłość naszpikowaną elektroniką przyjazną człowiekowi.

Samosterujące się samochody Google, inteligentne okulary, cyfrowy asystent głosowy, wszechobecny internet, post-pecetowy interfejs - to wciąż wyzwania, z którymi dopiero zaczynamy sobie radzić. Przydatne w życiu codziennym zaawansowanie Cortany z pewnością może nas cieszyć, lecz z punktu widzenia Sztucznej Inteligencji - pisanej wielkimi literami - tego typu rozwiązania to wciąż "niejutro".

Czasy, w których Prawdziwa Inteligencja będzie codziennością, taką jak dzisiaj są smartfony, w końcu jednak nadejdą. Tymczasem Stephen Hawking wraz ze swoimi naukowymi kolegami: Stuartem Russellem, Maxem Tegmarkiem i Frankiem Wilczekiem na łamach brytyjskiego "The Independent" ostrzegają: nie możemy przewidzieć, jakie będą skutki rozwoju sztucznej inteligencji.

Spoglądając w przyszłość, nie dostrzegam fundamentalnych ograniczeń tego, co moglibyśmy osiągnąć.  Nie ma prawa fizyki, ograniczającego zorganizowanie cząstek w sposób, który umożliwi wykonywanie obliczeń o wiele bardziej skomplikowanych od tych, jakie wykonuje ludzki mózg. Ta zmiana może rozegrać się jak w filmie. Choćby tak, jak przedstawił to Irving Good w 1965 - maszyny z superludzką inteligencją, nieustannie ulepszające swoje projekty. Mogłoby to wywołać coś, co Vernor Vinge nazwał "osobliwością technologiczną" [...].

Fot. Doug Wheller/Creative Commons Uznanie autorstwa 2.0

Hawking wspomina Irvinga Gooda, bo ten wybitny brytyjski matematyk o polsko-żydowskich korzeniach był jednym z konsultantów tworzących filmowy komputer HAL 9000 z Odysei Kosmicznej. Good stworzył go na podstawie własnej definicji "osobliwości technologicznej", pojęciu rozwiniętemu przez Vernora Vingea, kolejnego ze wspomnianych.

Chodzi o hipotetyczny punkt w przyszłym rozwoju cywilizacji, w którym postęp techniczny stanie się tak szybki, że wszelkie ludzkie przewidywania staną się nieaktualne. Głównym wydarzeniem, mającym do tego doprowadzić, byłoby stworzenie sztucznych inteligencji przewyższających intelektualnie ludzi. Takie sztuczne inteligencje mogłyby opracowywać jeszcze wydajniejsze sztuczne inteligencje, wywołując lawinową zmianę w technologii.

Hawking wraz pozostałymi autorami artykułu rozważają, czego mogłaby dokonać sztuczna inteligencja.

Można sobie wyobrazić technologię, która przechytrzyłaby rynki finansowe, przerosłaby możliwościami ludzkich wynalazców, wywiodłaby w pole światowych przywódców i stworzyłaby broń, której nie będziemy nawet w stanie zrozumieć. Podczas gdy krótkoterminowy rozwój sztucznej inteligencji zależy od tego, kto ją kontroluje, na dłuższą metę chodzi o to, czy sztuczną inteligencję w ogóle da się kontrolować.

Zatem w obliczu ewentualnych acz nieprzewidywalnych możliwości i zagrożeń eksperci robią, co mogą, by osiągnąć najlepsze rezultaty, prawda? Błąd. Jeśli przeważająca nad nami obca cywilizacja prześle nam wiadomość: "Przybędziemy za kilka dekad", odpowiemy: "Dobrze, dajcie znać, kiedy dotrzecie, zostawimy wam otwarte drzwi"? Prawdopodobnie nie, ale w mniejszym lub większym stopniu właśnie tak postępujemy ze sztuczną inteligencją. Potencjalnie stoimy w obliczu czegoś najlepszego lub najgorszego w historii ludzkości. Niewiele poważnych badań jest poświęconych temu zagadnieniu. [...] Każdy z nas powinien spytać sam siebie, co można zrobić, jeśli chodzi o sztuczną inteligencję, by osiągnąć korzyści, unikając niebezpieczeństw.

Skoro Hawking, jeden z największych umysłów naszych czasów, ostrzega nas przed sztuczną inteligencją, chyba mamy się czego bać. Może nie my, ale nasze dzieci i wnuki. W krótkiej perspektywie wirtualni asystenci i wszechobecna elektronika może ułatwiać nam życie. Ale czy wyobrażacie sobie, że za kilkadziesiąt lat świat zostanie przejęty przez maszyny, których działania nie będziemy nawet w stanie zrozumieć, gdyż powstaną w tajemnicy przed nami, stworzone przez superkomputery, które z taką wiarą w przyszłość dziś projektujemy?

Więcej o:
Komentarze (450)
Stephen Hawking: Sztuczna inteligencja może być największym błędem ludzkości
Zaloguj się
  • robert.kedzierski_technologie

    Oceniono 93 razy 73

    Drodzy Czytelnicy. Bardzo dziękujemy za wysoki poziom dyskusji pod tym materiałem. Wiele celnych i bardzo ciekawych komentarzy!

  • mejerewa

    Oceniono 550 razy 490

    To już było - Terminator, Matrix itp.
    Ludzie się nie przejmą tym, tak jak nie przejmują się skutkami wojen, czy dewastacją przyrody. W "wielkim świecie" liczy się władza i pieniądze. Niestety.

  • antiax

    Oceniono 277 razy 255

    Pewnie pojawi się wiele albo nawet kilka komentarzy dyskredytujących przewidywania czy też opinię Stephena Hawkina, ale ten człowiek, tak wykształcony zdaje sobie oczywiście sprawę z tego co mówi. Każdemu wydaje się, że nawet jak człowiek stworzy robota uczącego się na błędach przez co rozumiemy również robota potrafiącego się samemu uczyć to przecież kiedy zacznie nam zagrażać w prosty sposób będziemy mogli go unieszkodliwić - wyłączając zasilanie itd. Ale tutaj chodzi o cały system sztucznej inteligencji, taką centrale, która ucząc się będzie powoływała kolejne i rozwinięte jednostki sztucznej inteligencji, której człowiek w końcu nie opanuje, bo nie będzie w stanie albo nie będzie, jak słusznie Hawking zauważył, w stanie nawet zrozumieć. Tutaj nie chodzi o taki sprzęt jakim jest np. samoprowadzący się samochód Google'a, ponieważ tam każdy algorytm jest wprowadzany przez człowieka, ale o system jakim jest np. znany dobrze translator Google'a, który jest już wytworem sztucznej inteligencji, dość prymitywnym, ale spełniającym swoje zadanie i ciągle się rozwijającym. Ten system sam wyszukuje błędy w tłumaczeniu i bazuje na słownictwu, które wprowadzają użytkownicy, potrafi też skanować wyrazy i opierać się na opinii internautów, bez żadnej ingerencji człowieka. Pytanie ile czasu potrzebuje człowiek aby stworzyć prawdziwą sztuczną inteligencję, przez co mam na myśli taką, która będzie potrafiła rozumieć, uczyć się, a co najważniejsze inteligencje, która będzie kreatywna i przytomna (świadoma).

  • kokoszka1616

    Oceniono 146 razy 106

    "Może się zdarzyć, że staniemy się maskotkami dla komputerów, że będziemy traktowani jak pokojowe pieski, ale mam nadzieję, iż jeśli zajdzie potrzeba, zawsze będziemy mogli wyciągnąć wtyczkę z gniazdka."

    Arthur C. Clarke

  • kata_marian

    Oceniono 153 razy 101

    Nawet jesli rzeczywiscie tak sie stanie, co jest dosc przekonywujaca wizją,
    to odbedzie sie to zgodnie z prawami ewolucji.
    Tego jeszcze nikomu nie udalo sie zmienic...

  • bkrs6

    Oceniono 82 razy 76

    Cylons. Cylons everywhere.

  • korrping

    Oceniono 71 razy 57

    Niektórzy futurolodzy wieszczą, że za jakieś sto lat nastąpi magiczny moment, tzw. "osobliwość technologiczna". Będzie to moment, gdy maszyny staną się inteligentniejsze od ludzi i przejmą stery ziemskiej cywilizacji. Od tego momentu dalszy postęp nie będzie już generowany przez człowieka, a przez wytwory jego działalności.

Aby ocenić zaloguj się lub zarejestrujX