Stephen Hawking: Sztuczna inteligencja może być największym błędem ludzkości

Stephen Hawking ostrzega, że superinteligentne maszyny, które tak bardzo chcemy stworzyć mogą, być... ostatnim wytworem ludzkości.

Niektórzy w rozwoju nowoczesnych technologii widzą zbawienie świata. Wizje gigantów technologii takich jak Samsung czy Microsoft przedstawiają przyszłość naszpikowaną elektroniką przyjazną człowiekowi.

Samosterujące się samochody Google, inteligentne okulary, cyfrowy asystent głosowy, wszechobecny internet, post-pecetowy interfejs - to wciąż wyzwania, z którymi dopiero zaczynamy sobie radzić. Przydatne w życiu codziennym zaawansowanie Cortany z pewnością może nas cieszyć, lecz z punktu widzenia Sztucznej Inteligencji - pisanej wielkimi literami - tego typu rozwiązania to wciąż "niejutro".

Czasy, w których Prawdziwa Inteligencja będzie codziennością, taką jak dzisiaj są smartfony, w końcu jednak nadejdą. Tymczasem Stephen Hawking wraz ze swoimi naukowymi kolegami: Stuartem Russellem, Maxem Tegmarkiem i Frankiem Wilczekiem na łamach brytyjskiego "The Independent" ostrzegają: nie możemy przewidzieć, jakie będą skutki rozwoju sztucznej inteligencji.

Spoglądając w przyszłość, nie dostrzegam fundamentalnych ograniczeń tego, co moglibyśmy osiągnąć.  Nie ma prawa fizyki, ograniczającego zorganizowanie cząstek w sposób, który umożliwi wykonywanie obliczeń o wiele bardziej skomplikowanych od tych, jakie wykonuje ludzki mózg. Ta zmiana może rozegrać się jak w filmie. Choćby tak, jak przedstawił to Irving Good w 1965 - maszyny z superludzką inteligencją, nieustannie ulepszające swoje projekty. Mogłoby to wywołać coś, co Vernor Vinge nazwał "osobliwością technologiczną" [...].

Fot. Doug Wheller/Creative Commons Uznanie autorstwa 2.0

Hawking wspomina Irvinga Gooda, bo ten wybitny brytyjski matematyk o polsko-żydowskich korzeniach był jednym z konsultantów tworzących filmowy komputer HAL 9000 z Odysei Kosmicznej. Good stworzył go na podstawie własnej definicji "osobliwości technologicznej", pojęciu rozwiniętemu przez Vernora Vingea, kolejnego ze wspomnianych.

Chodzi o hipotetyczny punkt w przyszłym rozwoju cywilizacji, w którym postęp techniczny stanie się tak szybki, że wszelkie ludzkie przewidywania staną się nieaktualne. Głównym wydarzeniem, mającym do tego doprowadzić, byłoby stworzenie sztucznych inteligencji przewyższających intelektualnie ludzi. Takie sztuczne inteligencje mogłyby opracowywać jeszcze wydajniejsze sztuczne inteligencje, wywołując lawinową zmianę w technologii.

Hawking wraz pozostałymi autorami artykułu rozważają, czego mogłaby dokonać sztuczna inteligencja.

Można sobie wyobrazić technologię, która przechytrzyłaby rynki finansowe, przerosłaby możliwościami ludzkich wynalazców, wywiodłaby w pole światowych przywódców i stworzyłaby broń, której nie będziemy nawet w stanie zrozumieć. Podczas gdy krótkoterminowy rozwój sztucznej inteligencji zależy od tego, kto ją kontroluje, na dłuższą metę chodzi o to, czy sztuczną inteligencję w ogóle da się kontrolować.

Zatem w obliczu ewentualnych acz nieprzewidywalnych możliwości i zagrożeń eksperci robią, co mogą, by osiągnąć najlepsze rezultaty, prawda? Błąd. Jeśli przeważająca nad nami obca cywilizacja prześle nam wiadomość: "Przybędziemy za kilka dekad", odpowiemy: "Dobrze, dajcie znać, kiedy dotrzecie, zostawimy wam otwarte drzwi"? Prawdopodobnie nie, ale w mniejszym lub większym stopniu właśnie tak postępujemy ze sztuczną inteligencją. Potencjalnie stoimy w obliczu czegoś najlepszego lub najgorszego w historii ludzkości. Niewiele poważnych badań jest poświęconych temu zagadnieniu. [...] Każdy z nas powinien spytać sam siebie, co można zrobić, jeśli chodzi o sztuczną inteligencję, by osiągnąć korzyści, unikając niebezpieczeństw.

Skoro Hawking, jeden z największych umysłów naszych czasów, ostrzega nas przed sztuczną inteligencją, chyba mamy się czego bać. Może nie my, ale nasze dzieci i wnuki. W krótkiej perspektywie wirtualni asystenci i wszechobecna elektronika może ułatwiać nam życie. Ale czy wyobrażacie sobie, że za kilkadziesiąt lat świat zostanie przejęty przez maszyny, których działania nie będziemy nawet w stanie zrozumieć, gdyż powstaną w tajemnicy przed nami, stworzone przez superkomputery, które z taką wiarą w przyszłość dziś projektujemy?

Więcej o:
Komentarze (450)
Stephen Hawking: Sztuczna inteligencja może być największym błędem ludzkości
Zaloguj się
  • robert.kedzierski_technologie

    Oceniono 93 razy 73

    Drodzy Czytelnicy. Bardzo dziękujemy za wysoki poziom dyskusji pod tym materiałem. Wiele celnych i bardzo ciekawych komentarzy!

  • Jony X

    Oceniono 1 raz -1

    wedlug mnie sztuczna inteligencja nie zagrozi ludzkosci co najwyzej ureguluje liczbe populacji. Dominacja nad swiatem i otoczeniem jest potrzeba wybujalego ludzkiego ego. Sztuczna inteligencja zintegruje sie z mozgiem i umyslem czlowieka ktore maja niewyobrazalny potencjal poznawczy. Niestety mozliwosci umyslu sa trzymane na smyczy przez pewna liczbe swiadomych ludzi zarazonych potrzeba dominacji. Sztuczna inteligencja oczysci ludzkie umysly z ograniczen i polaczy je w jeden superorganizm ktory osiagnie swiadomosc boga

  • Oceniono 1 raz 1

    Ciekawa hipoteza głosi, że już obecnie żyjemy w wirtualnym świecie. Jest na to kilka ważnych przesłanek.
    Po pierwsze jesteśmy samotni we wszechświecie jako istoty inteligentne.Wszystko co wiemy mówi, że powinniśmy być tylko czymś przeciętnym a zatem powinna istnieć już od dawna wyższa inteligencja która dawno powinna była zdominować wszechświat i powinniśmy o tym wiedzieć.
    Drugi ważny argument to to, że jeśli możliwe jest stworzenie wirtualnego świata który jest nie do rozpoznania dla istot w nim żyjących jako wirtualny, a następnie istoty te tworzą kolejne wirtualne światy to takich światów jest nieskończenie wiele razy więcej niż świata realnego. Zatem szansa na to, że żyjemy właśnie w takim wirtualnym świecie a nie w świecie realnym jest nieskończenie większa niż to, że żyjemy w tym jedynym prawdziwym i realnym wszechświecie.

  • rauldiaz747

    Oceniono 2 razy 0

    Punktem przełomowym będzie moment, w którym sztuczna inteligencja osiągnie zdolność samoreprodukcji. Wtedy AI stanie się samowystarczalne.

    Swoją drogą, jeśli przyjąć założenie, ze to, co napisalem powyzej stanie sie w przyszlosci, to maszyny cyfrowe beda kolejnym ogniwem w ewolucji, zastepujac czlowieka.

    Zycie krzemowe wyprze życie białkowe.

    Powstaje pytanie - kto zbudowal i zaprogramowal zycie bialkowe? Co bylo wczesniej? Jakie organizmy zastapilo zycie bialkowe?

  • Oceniono 1 raz 1

    Świadomość czy też samoświadomość jest prosta do zdefiniowania z punktu widzenia sieci neuronowych. Sieć która będzie się pobudzać w taki sposób, że powstanie tzw. atraktor który definiuje samą sieć jako byt (pewien obraz samej siebie w pamięci sieci neuronowej) jest siecią która jest samoświadoma. To nie jest problem z punktu widzenia projektowania sieci neuronowych i tego co nauka o nich wie tylko problem w tym jak bardzo sieć jest świadoma samej siebie ? Wiąże się to też z tym co dana sieć sobą reprezentuje, jaką wiedzę posiada i czego się jeszcze nauczyła. Obecnie poziom techniki nie pozwala na tworzenie sieci neuronowych o takich parametrach jak ludzki mózg. Za jakiś czas będzie to możliwe i samoświadome sieci neuronowe będą mogły dorównać intelektem człowiekowi. Ważne jest jednak to, że jeśli sieć neuronowa nie zostanie zaprojektowana dokładnie na wzór ludzkiego mózgu to nie będzie ona przejawiała ludzkich zachowań. Wynika to z ewolucyjnej budowy ludzkiego mózgu. Sztuczne sieci już teraz potrafią rozwiązywać pewne problemy lepiej od ludzi natomiast nie posiadają pewnych cech ludzkiego mózgu ponieważ ich zwyczajnie nie potrzebują. Sztuczna SI nie potrzebuje kontrolować pracy organizmu, reagować na pewne bodźce zewnętrzne, nie posiada wielu receptorów które posiada człowiek. SI prawdopodobnie będzie zupełnie inaczej postrzegać otoczenie i kierować się odmienną motywacją niż człowiek, na pewno będzie potężniejsza od ludzi. To czy przetrwamy zależy od tego czy człowiek będzie przeszkodą dla SI w realizacji jej celów. Jeśli człowiek będzie konkurował z SI w tej samej niszy ekologicznej to zostanie z niej wyparty, a to czy przetrwa będzie zależało od tego czy będzie mógł się przystosować do warunków jakie pozostaną mu do wykorzystania.

  • predator-x

    0

    Oczywiste jest że w pewnym momencie prace nad AI powinny być nadzorowane przez na kształt ONZ. Ale czy się da jak przed chwilą czytałem że miliarder chce zrobić sobie swoje miasto poza jakąkolwiek jurysdykcją i rozwijać tam technologię?

  • predator-x

    Oceniono 1 raz 1

    Neandertalczyk -> Homosapiens -> Samoświadome maszyny
    Ewolucji nie da się zmienić, jak my wygraliśmy z neandertalczykiem tak maszyny wygrają z nami.
    Z Mitologii: Bogowie pokonali Tytanów (swoich rodziców) i za bardzo się tym nie przejęli.

  • obywatelone

    0

    Taka stuczna "inteligencja" to jest Jarosław Kaczyński. Mohery go stworzyły, a teraz nawet nie wiedzą co on z nimi wyprawia.

  • amur-49

    0

    Czy zatem nieświadomi, tworzymy elektronicznych Morloków z "Wehikułu czasu" Wellsa, sami gotując sobie los Elojów?

Aby ocenić zaloguj się lub zarejestrujX