Ekspertka o regulacjach AI: Czas się tym zająć na poważnie, bo lecimy za szybko

Kacper Kolibabski
- Myślę, że sporo osób ma zadyszkę. W tym sensie, że mają poczucie, że tempo rozwoju AI jest zbyt intensywne i nie ma szans na spokojną adaptację technologii - mówi Next.Gazeta.pl Aleksandra Przegalińska, filozofka i naukowczyni zajmująca się sztuczną inteligencją. Nie popiera jednak wstrzymania rozwoju AI, o jaki apelują wielkie nazwiska, m.in. Elon Musk. Przestrzega natomiast przed konsekwencjami takiego zastopowania, które mogą być - jak mówi - fatalne.

Sztuczna inteligencja (AI) i jej dynamiczny rozwój wcale nie muszą być przekleństwem, ani tym bardziej wiązać się z "zagładą ludzkości". Wręcz przeciwnie. AI daje nowe technologiczne możliwości, by poprawić nasz byt. 14 i 15 czerwca odbędzie się międzynarodowy hackathon Hack To The Rescue, którego patronem jest Next.Gazeta.pl. O tym, jakie wyzwania stawia przed nami AI, czego możemy się spodziewać, o co zadbać i nad czym się pochylić, by dobrze spożytkować technologię, opowiada nam Aleksandra Przegalińska, profesorka Akademii Leona Koźminskiego, która doktoryzowałą się w zakresie filozofii sztucznej inteligencji w Instytucie Filozofii UW.

Zobacz wideo Jak uniknąć buntu maszyn? Czy da się wychować sztuczną inteligencję? [Next Station]

Kacper Kolibabski, Gazeta.pl: Śledząc dyskusję na temat sztucznej inteligencji, często spotkałem się z opinią, że nie powinniśmy się obawiać samej sztucznej inteligencji i jej rozwoju, ale tego, jak zostanie ona wykorzystana w systemie, w którym żyjemy. Trafiło na kapitalizm. Ale wśród osób, które sugerują zastopowanie rozwoju sztucznej inteligencji i apelują o półroczne moratorium, jest choćby Elon Musk, czyli najbogatszy człowiek świata i beneficjent kapitalizmu. Czego się może bać?

Aleksandra Przegalińska: Historia z Elonem Muskiem jest dużo bardziej skomplikowana. On był wczesnym inwestorem w OpenAI (firma, która stworzyła ChatGPT - red.) i przyjaźnił się z szefem firmy Samem Altmanem. Ich drogi się rozeszły i myślę, że Musk jest dziś w dość trudnej sytuacji. Musi zajmować się reanimowaniem medium społecznościowego - skądinąd dosyć starego - jakim jest Twitter, a rozwój sztucznej inteligencji stawia pod znakiem zapytania rozwój mediów społecznościowych. Jak ktoś ma taką intuicję, a sam jest właścicielem dużej platformy społeczniościowej, to może być w jego interesie, żeby generatywna sztuczna inteligencja się nie rozwijała i nie skradła mu biznesu. Więc jakbym miała to krótko skwitować, to bym powiedziała, że troszeczkę zazdrości, a troszeczkę jest niezadowolony, że nie uczestniczy w najnowszej fali tworzenia technologii, bo zawsze wysoko i daleko na takich falach surfował. 

Ten apel podpisały jednak też i inne osoby. Pani nie kusiło? Nie boi się pani scenariusza z "Terminatora"? 

Muszę się przyznać, że ja też pierwszą wersję stworzoną przez Future of Life Institute podpisałam. Potem zobaczyłam, że treść się zmieniła. Pierwsza wersja zakładała bowiem nie tyle zapauzowanie rozwoju sztucznej inteligencji, co raczej skupienie się na tym, żeby w najbliższych miesiącach zwiększyć jej transparentność oraz wypracować najlepsze praktyki, regulacje. Zbudować dla sztucznej inteligencji otoczenie. To mi się bardzo podobało, rezonowało ze mną. Potem się jednak okazało, że zmieniono to w "ban" na AI, co wydaje mi się, po pierwsze, kontrproduktywne, a po drugie - to jest wylewanie dziecka z kąpielą. Oczywiście, zdarzało nam się nie realizować jakiegoś potencjału technologicznego, tak było na przykład z klonowaniem. Co do zasady, w przypadku AI, mamy jednak do czynienia z technologią dosyć ciekawą, o potencjalnie szerokich zastosowaniach, również tych pozytywnych. Myślę, że nie trzeba jej od razu zakazywać, a po prostu ostrożnie się poruszać.

Czyli jednak powinniśmy się jakoś ograniczyć?

Myślę, że sporo osób ma zadyszkę. W tym sensie, że mają poczucie, że tempo rozwoju AI jest zbyt intensywne i nie ma szans na spokojną adaptację technologii. Dla mnie największym zagrożeniem jest dezinformacja, inne są mniej kluczowe. Więc chciałabym jak najszybszego wykształcenia dobrych praktyk w tej materii. Ludzie, ale też sami naukowcy, którzy pracowali nad AI, mają prawo czuć się zagubieni, bo nie do końca są jasne plany jej rozwoju. Mam wrażenie, że idziemy dalej dlatego, że można, a nie dlatego, że jest jakiś jasno wskazany cel, do czego ta technologia ma służyć. I jak się słucha Sama Altmana, który opowiada, że jest 30-procentowa szansa, że sztuczna inteligencja nas zastąpi w przyszłości, że to jest technologia, która zmiecie człowieka z planszy, to można się dziwić, że ktoś tak spokojnie o tym mówi, jednocześnie ją tworząc. 

Z czegoś więc ten apel jednak wynika i nie jest bezpodstawny. 

Ja ten apel o wstrzymanie prac nad AI, czytam jako powiedzenie sobie: "Hej, bardzo daleko zajechaliśmy bez żadnych ram. Zrobiło się ciekawie, technologia jest rzeczywiście bardzo imponująca, ale już najwyższy czas ją uregulować". Zresztą to już dużo wcześniej powinno być robione.

Zawsze uważałam, że etyczna sztuczna inteligencja to jedyny sensowny kierunek. W każdym razie teraz jest czas, żeby się tym zająć na poważnie, bo lecimy za szybko.

I to, że OpenAI już nie ogłasza, że będzie robić ChatGPT 5, tylko że przyjdzie na tę chwilę poczekać, czytam tak, że oni już zrozumieli, iż dla wielu ludzi wszystko dzieje się za szybko i musimy przemyśleć parę rzeczy, żeby iść z tą technologią dalej. Co wcale się nie równa jej zakazowi. Jesteśmy w bardzo trudnym momecie. 

Szczególnie, że mamy doświadczenia społeczne, że różnego rodzaju prohibicje czy zakazy zazwyczaj nie były skuteczne.

Prohibicja rodzi podziemie. Podziemie AI to by była kompletnie fatalna sytuacja. Dlatego uważam, że ten "ban" jest głupim pomysłem, bo nie da się zakazać tej technologii. Ona i tak będzie. Już jest.

Więc można tylko przekuwać ją na jakieś szerokie, demokratyczne zastosowania, gdzie wzajemnie będziemy dla siebie systemem kontroli, jak tej technologii używać. Trzeba stworzyć model, w którym będzie większa świadomość tego, że AI w ogóle jest, a ludzie nie będą się łatwo nabierać na jakieś dziwne komunikaty z syntetyzowanym głosem. Ale można też spojrzeć na to z drugiej strony: taki Donald Trump na przykład może powiedzieć, że jego afera ze Stormy Daniels to jest jeden wielki deepfake, prawda? 

Przerażająca wizja, bo już bez tego Trump zdołał zrobić wiele złego.

No właśnie, bo sztuczna inteligencja pogłębia zaburzone przez polityków granice między rzeczywistością a fake newsami. Więc dużym problemem jest parcie z tą technologią dalej tylko dlatego, że to jest technicznie możliwe. Ale też nieodpowiedzialne jest ignorowanie skutków społecznych, na przykład tego, że dzieci piszą eseje z pomocą ChatGPT i nauczyciele są przerażeni.

Wspomnieliśmy o rzeczach dotyczących "Kowalskiego". Natomiast sztuczna inteligencja zdaje się mieć olbrzymi potencjał transformatywny wobec rzeczywistości i może wpływać na nią w szerszy sposób. Wiemy, że sztuczną inteligencję rozwijają chociażby Chiny, więc nawet jeśli my byśmy przeprowadzili moratorium, czy nie zostalibyśmy przez to w tyle?

Chiny ewidentnie uzyskały liczne przewagi, tworząc algorytmy predykcyjne, sztuczną inteligencję pod biznes, pod prognozę pogody, pod social scoring. Karmili ją ogromnymi zbiorami danych i mimo że mieli stosunkowo proste algorytmy, to przez to, że danych było dużo, to ciekawie działało. Teraz w generatywnej sztucznej inteligencji Chiny złapały jednak zadyszkę - są słabsze niż Zachód. Często podnoszony jest argument, że zatrzymać się można tylko konsensualnie w jakiejś części globu, ale to nie gwarantuje, że zatrzymają się inni. Wręcz przeciwnie: innych to może sprokować, żeby wykorzystali ten moment.

Oczywiście można by było powiedzieć, że jeśli przystopujemy, Chiny spróbują nadgonić ten dystans, ale stała się interesująca rzecz: przestały dominować dane, a zaczęły dominować algorytmy. To, czym konkurujemy, to nie jest już po prostu więcej danych, tylko ogromne, bardzo kompleksowe sieci neuronowe, które te dane przetwarzają. Razem z tą zmianą USA wróciły do awangardy w AI, Chiny wydaje się, że pozostały z tyłu. I nie wiemy, co będą chciały zrobić.

Ale moratorium byłoby dla nich szansą?

Pozwoliłoby im trochę podgonić, tak. Ale interesujące jest to, że jeszcze dwa-trzy lata temu wszyscy mówili, że za chwilę Chiny totalnie zmiotą konkurencję. To reszta świata miała je gonić. To pokazuje jak trajektorie rozwoju technologicznego są nieoczywiste. Nagle pojawia się jakiś game changer, który odwraca to, co uważaliśmy za oczywiste i Chiny z numeru jeden, może numeru dwa globalnie w AI, przechodzą do defensywy. 

Ale to zawsze może się bardzo szybko się odwrócić, jeśli nie będziemy trzymać ręki na pulsie, tylko zwolnimy? 

Ta zmiana nie jest też jakaś błyskawicza. Pracowałam z modelem GPT 1 i 2 od 2017/18 roku, więc nie jestem fundamentalnie zaskoczona tym, co się dzieje. Jestem zaskoczona chyba tylko ChatemGPT, czyli konwersacyjną nakładką na GPT oraz tym jak ona się niesamowicie szybko rozprzestrzeniła. Natomiast jak zobaczyłam pierwszy raz możliwość generowania tekstu bez programowania z tym modelem GPT w tzw. playgroundzie, czyli wewnątrz systemu, nie przez czata - to już wtedy czułam, że to będzie bardzo duża sprawa. Że ten no-code, czyli możliwość pracowania ze sztuczną inteligencją, która tworzy teksty, tworzy kod bez programowania, że to jest bardzo duża rzecz. Więc dla wielu osób ze środowiska to nie jest tak bardzo zaskakujące. Chiny ewidentnie nie wykonały poprawnie business intelligence i w ogóle wywiadu w tej materii, skoro przegapiły tę rewolucję. Było trochę jaskółek, które może nie czyniły wiosny, ale były silnym znakiem ostrzegawczym, że idziemy w stronę generycznej sztucznej inteligencji. To nie wyskoczyło jak diabeł z pudełka.

Z jednej strony mamy krzykaczy, którzy mówią, że trzeba zastospować rozwój AI, inni twierdzą, że byłby to błąd. Ale tak potężne narzędzie oznacza, że różne grupy, mają różne interesy w jego tworzeniu. Ekonomista Noureil Roubini twierdzi, że rozwijąc AI, kapitalizm funduje sobie samozagładę, bo kto będzie kupował produkty wytwarzane przez roboty, jeśli nie będziemy mogli na nie zarobić, gdy zastąpi nas sztuczna inteligencja. Z kolei historyk Juwal Noach Harari uważa, że AI pogłębi znane z kapitalizmu podziały klasowe. Filozof Sławoj Zizek pisze natomiast: "panika widoczna w liście otwartym o sztucznej inteligencji bierze się z obawy, że nawet pasażerowie 'pociągu postępu' nie zdołają nim sterować. Nasi obecni cyfrowi feudałowie się boją". To kto zyska na tej rewolucji, a kto powinien się bać - społeczeństwo, kapitalizm czy miliarderzy? 

Dużo wątków, ale to bardzo ciekawe pytanie. Dziś czytałam post dotyczący tego, że inżynier z Google napisał w raporcie, że tak naprawdę w tym wyścigu nie zwycięży OpenAI czy Google, tylko open source (otwarte i dostępne publicznie kody źródłowe - red.). To by b,yło społecznie nie najgorszą wiadomością. A kto miałby się bać? Dla mnie straszenie AI jest problemem dlatego, że eksperci fundują dosyć hardcorową jazdę społeczeństwu, które ma mniejszą wiedzę na temat tej technologii. I robią to ci sami "eksperci", którzy niekoniecznie zajmowali się do tej pory AI, a teraz mają poczucie, że trzeba się wypowiedzieć, ale w taki trochę demoniczny sposób: że szykuje nam się czarny scenariusz. I to tego szerzenia apokaliptyzmu powinniśmy się bać. Bo do tej pory rozwój technologiczny pokazuje, że to wszystko nie jest oczywiste, że trajektorie rozwoju tej technologii nie są z góry ustalone. Dla mnie bardzo ważne jest, że mamy przestrzeń do działania, kształtowania AI na różne sposoby i naprawdę nie chciałabym, żebyśmy sami się pozbawiali sprawczości. Funduje się ludziom apokaliptyczny scenariusz, nie mówiąc, że to może rozwinąć się zupełnie inaczej. Ludzie mocno reagują na sztuczną inteligencję, która z nimi rozmawia. Przez to nabudowują sobie różne scenariusze i nie myślą, że to jest model statystyczny, który losuje sobie odpowiedzi, tylko że mają do czynienia z istotą, która coś czuje. I ja się nie dziwię, że tak myślą, bo to rzeczywiście trochę tak wygląda. Z takim czatem, jak się gada, to prawie jak z kolegą. Łatwo wtedy snuć czarne scenariusze.

Ja widzę natomiast kilka zagrożeń, które wydają mi się już dziś bardzo obecne i istotne. Jedno to wszelakie formy dezinformacji, o czym już mówiliśmy.

A inne? 

Kradzieże tożsamości z pomocą AI. Ważnym wyzwaniem jest również ustalenie kwestii praw autorskich w kontekście sztucznej inteligencji, czyli tego, żeby ludzie, którzy wytwarzają dobra kultury, które są podstawą do treningu algorytmów, byli za to wynagradzani. Trzeba się też zastanowić, czy syntetyzowanie starych aktorów, którzy już nie żyją i wkładanie ich do filmów jest w porządku. Czy to jest to, do czego chcemy dążyć? Jest więc szereg wyzwań natury prawnej, związanych z tym, jak uczy się sztuczna inteligencja i jak wytwarza treści czy pracę. Co zrobimy, jeśli AI przyczyni się do wzrostu produktywności? Czy stworzymy nowe mechanizmy dystrybucji wartości, tak żeby wszyscy z tego korzystali? Czy nastąpi jeszcze większa koncentracja kapitału wśród najbogatszych? AI chwieje też oligopolem technologicznym, spółki takie jak Meta mają teraz trudności. Coś się więc ruszyło w zacementowanym krajobrazie technologicznym.

Co dokładnie? Big techy wciąż mają przecież silną pozycję. 

Sztuczna inteligencja zmienia też to, jak się za technologię płaci. Odchodzimy od dataizmu, w którym w zamian za usługi oddajemy dane. ChatGPT to inny model działania - nie zbiera danych personalnych, nie jest w ten sposób monetyzowany i będzie miał pewnie jakieś inne sposoby zarabiania. To interesujące, że zmieniają się modele biznesowe, do których się przyzwyczailiśmy w ciągu ostatnich 10 lat. Media społecznościowe stoją przed wyzwaniem z powodu ChataGPT i generatywnej AI i to wcale nie znaczy, że my jako społeczeństwo na tym stracimy. Harrari wieszczył, że pracę z powodu rozwoju sztucznej inteligencji stracą przede wszystkim wąsko specjalizowane grupy zawodowe. Kilka lat później okazuje się, że bardziej zagrożeni czują się pracownicy kreatywni. Więc tak to jest z tymi predykcjami średnioterminowymi i długoterminowymi, że one się rzadko sprawdzają.

Trudno powstrzymać się od tych przewidywań, gdy według niektórych osób na szali jest cała nasza cywilizacja.

Jasne, wciąż musimy zdecydować, czy to technologia niskiego czy średniego ryzyka i co z nią zrobimy. Bo jak już mówiłam - te ryzyka istnieją. Ale to jest zniuansowany temat i tak się o nim powinno rozmawiać, a nie tworzyć dystopijne spekulacje bez konkretnej oferty, co można zrobić z AI. Te narzędzia przecież już sa dostępne, ale to wciąż otwarty produkt, który można kształtować.

Więcej o: