Cenione osobistości branży technologicznej sprzeciwiają się szalonemu wyścigowi, jaki rozgrywa się w kwestii prac nad rozwojem sztucznej inteligencji. Do firm i instytutów zajmujących się AI wystosowano list otwarty, w którym autorzy wyrażają zaniepokojenie niezwykłymi postępami w opracowywaniu tego typu systemów. Jak uważają, mogą one stać się dla nas zagrożeniem. List opublikowano na stronie organizacji Future of Life Institute, a podpisał się pod nim Elon Musk, wielu badaczy sztucznej inteligencji i znane postacie świata nowych technologii, m.in. Steve Wozniak, współzałożyciel Apple.
Autorzy listu na wstępie zaznaczają, że rozwiązania oparte o osiągnięcia sztucznej inteligencji zaczynają konkurować z ludźmi i - jak wykazały liczne badania - mogą w przyszłości "stanowić poważne zagrożenie dla społeczeństwa i ludzkości". Jak piszą dalej, "zaawansowana sztuczna inteligencja może stanowić gruntowną zmianę w historii życia na Ziemi", dlatego podczas prac nad AI kluczowa jest wyjątkowa ostrożność i zarządzanie pracami "z należytą troską".
Sygnatariusze apelu uważają, że pracujące nad AI laboratoria w ostatnich miesiącach "utkwiły w wymykającym się spod kontroli wyścigu" po to, aby jak najszybciej opracować coraz bardziej "inteligentne" rozwiązania i zaskakiwać wyjątkowymi możliwościami swoich systemów. Można domyślić się, że nawiązano tu m.in. do niebywałego rozwoju chatbotów, takich jak ChatGPT, które potrafią już nie tylko pisać rozbudowane teksty i rozpoznawać przedmioty na obrazkach, ale nawet doradzać w zarządzaniu przedsiębiorstwami lub zdawać egzaminy lekarskie i prawnicze.
Co więcej - jak czytamy w liście - wkrótce może dojść do sytuacji, gdy sami przestaniemy rozumieć działanie wysoce "inteligentnych" rozwiązań opartych o AI i nawet ich twórcy nie będą w stanie "zrozumieć, przewidywać lub skutecznie kontrolować" swoich systemów. Wśród rychłych zagrożeń autorzy wymieniają tu m.in. zalew kanałów informacyjnych propagandą, której AI nie będzie w stanie odróżnić od prawdy i zbyt daleko posuniętą automatyzację, która sprawi, że wiele miejsc pracy wkrótce przestanie istnieć. W przyszłości może oznaczać to nawet "ryzyko utraty kontroli nad naszą cywilizacją", gdy sztuczna inteligencja stanie się mądrzejsza od ludzi i postanowi zastąpić nas samych.
Autorzy listu chcą, aby na przynajmniej pół roku wstrzymać się z opracowywaniem systemów potężniejszych niż GPT-4, który został wdrożony w połowie marca. Przerwa powinna być dobrowolna lub wymuszona przez rządy państw, ma być "transparentna i możliwa do zweryfikowania" oraz dotyczyć wszystkich laboratoriów zajmujących się AI. Jej celem jest z kolei zyskanie czasu na opracowania zabezpieczeń i procedur niezależnej kontroli przebiegu prac nad sztuczną inteligencją. Jak czytamy w zakończeniu, "ludzkość może cieszyć się kwitnącą przyszłością dzięki sztucznej inteligencji", ale jej rozwój powinien być ostrożny i prowadzony w taki sposób, aby społeczeństwa miały szansę przystosować się do obecności AI.