Elon Musk wzywa do powstrzymania rozwoju sztucznej inteligencji. "Zagrożenie dla ludzkości"

Bartłomiej Pawlak
Elon Musk i znane postacie świata IT apelują w liście otwartym do wstrzymania prac nad rozwojem sztucznej inteligencji. Autorzy uważają, że proces rozwoju systemów wykorzystujących uczenie maszynowe jest zbyt szybki i AI może wkrótce wymknąć się spod kontroli.

Cenione osobistości branży technologicznej sprzeciwiają się szalonemu wyścigowi, jaki rozgrywa się w kwestii prac nad rozwojem sztucznej inteligencji. Do firm i instytutów zajmujących się AI wystosowano list otwarty, w którym autorzy wyrażają zaniepokojenie niezwykłymi postępami w opracowywaniu tego typu systemów. Jak uważają, mogą one stać się dla nas zagrożeniem. List opublikowano na stronie organizacji Future of Life Institute, a podpisał się pod nim Elon Musk, wielu badaczy sztucznej inteligencji i znane postacie świata nowych technologii, m.in. Steve Wozniak, współzałożyciel Apple.

Zobacz wideo Studio Biznes odc. 150 [zawiera autopromocję]

Protest przeciwko rozwojowi AI. "Zagrożenie dla społeczeństwa i ludzkości"

Autorzy listu na wstępie zaznaczają, że rozwiązania oparte o osiągnięcia sztucznej inteligencji zaczynają konkurować z ludźmi i - jak wykazały liczne badania - mogą w przyszłości "stanowić poważne zagrożenie dla społeczeństwa i ludzkości". Jak piszą dalej, "zaawansowana sztuczna inteligencja może stanowić gruntowną zmianę w historii życia na Ziemi", dlatego podczas prac nad AI kluczowa jest wyjątkowa ostrożność i zarządzanie pracami "z należytą troską".

Sygnatariusze apelu uważają, że pracujące nad AI laboratoria w ostatnich miesiącach "utkwiły w wymykającym się spod kontroli wyścigu" po to, aby jak najszybciej opracować coraz bardziej "inteligentne" rozwiązania i zaskakiwać wyjątkowymi możliwościami swoich systemów. Można domyślić się, że nawiązano tu m.in. do niebywałego rozwoju chatbotów, takich jak ChatGPT, które potrafią już nie tylko pisać rozbudowane teksty i rozpoznawać przedmioty na obrazkach, ale nawet doradzać w zarządzaniu przedsiębiorstwami lub zdawać egzaminy lekarskie i prawnicze.

Sztuczna inteligencja staje się zbyt "mądra". Potrzebna jest przerwa

Co więcej - jak czytamy w liście - wkrótce może dojść do sytuacji, gdy sami przestaniemy rozumieć działanie wysoce "inteligentnych" rozwiązań opartych o AI i nawet ich twórcy nie będą w stanie "zrozumieć, przewidywać lub skutecznie kontrolować" swoich systemów. Wśród rychłych zagrożeń autorzy wymieniają tu m.in. zalew kanałów informacyjnych propagandą, której AI nie będzie w stanie odróżnić od prawdy i zbyt daleko posuniętą automatyzację, która sprawi, że wiele miejsc pracy wkrótce przestanie istnieć. W przyszłości może oznaczać to nawet "ryzyko utraty kontroli nad naszą cywilizacją", gdy sztuczna inteligencja stanie się mądrzejsza od ludzi i postanowi zastąpić nas samych.

Autorzy listu chcą, aby na przynajmniej pół roku wstrzymać się z opracowywaniem systemów potężniejszych niż GPT-4, który został wdrożony w połowie marca. Przerwa powinna być dobrowolna lub wymuszona przez rządy państw, ma być "transparentna i możliwa do zweryfikowania" oraz dotyczyć wszystkich laboratoriów zajmujących się AI. Jej celem jest z kolei zyskanie czasu na opracowania zabezpieczeń i procedur niezależnej kontroli przebiegu prac nad sztuczną inteligencją. Jak czytamy w zakończeniu, "ludzkość może cieszyć się kwitnącą przyszłością dzięki sztucznej inteligencji", ale jej rozwój powinien być ostrożny i prowadzony w taki sposób, aby społeczeństwa miały szansę przystosować się do obecności AI.

Więcej o: