Sam Altan, prezes OpenAI, laboratorium badawczego, które stworzyło ChatGPT oraz Dall-E 2, stwierdził podczas pierwszego przesłuchania przed Kongresem USA, że "regulacje sztucznej inteligencji są niezbędne". Podczas przesłuchania w senackiej komisji sądowniczej, Altman przyznał, że popiera regulacje i wytyczne, które wspierałyby korzyści płynące ze sztucznej inteligencji oraz minimalizowały ryzyka.
Uważamy, że regulacyjna interwencja rządu, będzie kluczowa by zminimalizować ryzyka, które niosą za sobą potężne modele (sztucznej inteligencji - red.)
- mówił Altman, cytowany przez "The Guardian".
Do regulacji AI zamiast zakazu jej rozwoju wzywa też polska ekspertka od sztucznej inteligencji Aleksandra Przegalińska, z którą rozmawialiśmy w ramach patronatu, którym Next.Gazeta.pl objęła Hack to The Rescue. To hackaton, czyli maraton programowania, podczas którego 14 i 15 czerwca programiści we współpracy z NGO'sami będą próbowali zbudować narzędzia oparte na generatywnej sztucznej inteligencji, które przysłużą się społeczeństwu.
Altman zasugerował, że rząd powinien rozważyć wprowadzenie licencji oraz wymogów testowych przy rozwoju i wypuszczaniu modeli AI. Zaproponował opracowanie zestawu procedur bezpieczeństwa oraz konkretnych testów, które algorytmy musiałaby zaliczyć, zanim by je dopuszczono do użytku. Szef OpenAI chciałby też, by przed uruchomieniem sprawdzali je niezależni audytorzy.
Senatorowie podczas przesłuchania porównywali generatywną sztuczną inteligencję do mediów społecznościowych i mówili o lekcji, którą prawodawcy wyciągnęli z porażki, jaką poniósł rząd w kwestii ich regulacji. Sam Altman podkreślał jednak, że Paragraf 230, który zwalnia media społecznościowe z odpowiedzialności za posty użytkowników, nie jest odpowiednią drogą regulacji dla AI.
Senatorowie wśród szans jakie daje AI, wymieniali obietnicę wyleczenia raka, głębsze zrozumienie fizyki i biologii czy modelowanie klimatu i pogody. Obawiają się jednak deepfake'ów, dezinformacji, dyskryminacji w mieszkalnictwie, nękania kobiet czy bezosobowych oszustw. Strach budzi też potencjał AI do zastąpienia ludzi, co skutkowałoby utratą pracy przez miliony osób.
Altman przyznał, że w przyszłości narzędzia, które buduje OpenAI, rzeczywiście znajdą odpowiedź na największy wyzwana ludzkości, jak kwestie klimatu czy lekarstwo na raka. Podkreślił jednak, że na dziś, nie mogą zrobić żadnej z tych rzeczy. Dodał też, że wierzy, iż korzyści przewyższają znacząco ryzyka, a jego firma prowadzi intensywne testy i implementuje bezpieczniki oraz monitoruje algorytmy przed ich wypuszczeniem.
OpenAI zbudowaliśmy na wierze w to, że sztuczna inteligencja może poprawić niemal każdy aspekt naszego życia, ale jednocześnie tworzy poważne ryzyka, nad których zarządzaniem musimy pracować wspólnie
- powiedział Altman.
Twórca ChatGPT uważa, że technologia znacząco zmieni rynek pracy, ale wierzy, że dzięki niej powstanie też znacznie więcej miejsc pracy. - Prace będą lepsze. To ważne, by myśleć o GPT, jak o narzędziu, a nie o stworzeniu. GPT4 i inne podobne narzędzia są dobre w wykonywaniu zadań, a nie w pracy. GPT4 moim zdaniem zautomatyzuje całkowicie niektóre zawody, ale stworzy też nowe i wierzę, że będą one znacznie lepsze - mówił Altman.
Sam Altman wyraził też poważne obawy co do wpływu dużych modeli językowych, takich jak ChatGPT, na wybory oraz dezinformację. Jak przyznał, jest wiele rzeczy, które algorytm może zrobić, mimo swoich ograniczeń. Jest na przykład zdolny wykryć osobę, która tworzy dezinformację na Twitterze.
Szef OpenAI nie miał jednak odpowiedzi na pytania w sprawie rekompensaty dla twórców, których piosenki, artykuły czy obrazy zostały wykorzystane do trenowania algorytmu. Został też zapytany, jak planuje zaradzić zagrożeniu, jakie tworzy sztuczna inteligencja dla lokalnych portali dziennikarskich, których treści są używane do trenowania sieci neuronowych. Altman odpowiedział, iż ma nadzieję, że ich narzędzie pomoże również reporterom i "jeśli będzie coś, co będziemy mogli zrobić, by pomóc lokalnym portalom, z pewnością to zrobimy".