14 czerwca rusza dwudniowy hackathon Hack To The Rescue: Generative AI. Programiści z całego świata spotkają się, by przeanalizować możliwości, jakie daje sztuczna inteligencja, do zmiany świata na lepsze. Poszukiwacze nowych rozwiązań będą rywalizować ze sobą, rozwiązując palące społeczne problemy. Redakcja Next.Gazeta.pl objęła to wydarzenie medialnym patronatem.
W dyskusji, która toczy się wokół algorytmów maszynowego uczenia i sieci neuronowych, skrótowo nazywanych sztuczną inteligencją, wyraźnie widać dwa obozy: tych, którzy przed nią przestrzegają i tych, którzy mają nadzieję na lepszą przyszłość. Obie grupy łączy jednak chęć wprowadzenia regulacji dla sztucznej inteligencji. Apelował o to nawet Sam Altman, prezes OpenAI, firmy która stworzyła ChatGPT. John Naughton specjalizujący się we wpływie technologii na społeczeństwo, zwrócił jednak uwagę na łamach "The Guardian", że dzięki regulacjom "stan gry" zostanie zamrożony, co jest korzystne dla OpenAI, które wyprzedza dziś wszystkich konkurentów o kilka długości. Bez chwilowego zastopowania rozwoju AI, w ciągu kilku miesięcy ta przewaga mogłaby znacząco stopnieć. Naukowczyni zajmująca się sztuczną inteligencją, Aleksandra Przegalińska, w rozmowie z Gazetą.pl mówiła z kolei, że zbyt restrykcyjne regulacje, ocierające się o zakaz rozwoju tej technologii, mogą poskutkować rozwojem "podziemia", co byłoby jej zdaniem katastrofalne w skutkach. Przegalińska podkreśla, że regulacje powinny być wprowadzane, ale z głową.
Regulujemy tak wiele dziedzin życia, że dość naturalnie nasuwa się potrzeba regulacji wynalazku, który część specjalistów określa mianem najbardziej doniosłego w historii ludzkości.
Sztuczna inteligencja to nie tylko nowinka techniczna, ale narzędzie o głęboko politycznym potencjale, które może utrwalić bądź zmienić relacje władzy
- podkreśla filozof i publicysta Tomasz Markiewka na łamach Oko.press i przywołuje tekst cenionego autora science ficton Teda Chianga. Chiang w "New Yorkerze" twierdził, że nietrafione są sugestie, że AI jest nieprzewidywalna i niekontrolowalna jak dżin z butelki. Za odpowiedniejsze uznał porównanie AI do firmy konsultingowej McKinsey&Company. Przeprowadza ona audyty, którymi korporacje podpierają się przy restrukturyzacjach. Gdy raport mówi, że zwolnienia grupowe są koniecznością, prezesi firm podeprą się nim i renomą audytora, i - w pewnym sensie - umyją ręce, jednocześnie podnosząc wartość firmy - tłumaczy Chiang i przekonuje, że AI nawet w obecnej, "prymitywnej" wersji może stać się furtką dla korporacji, dzięki której będą mogły unikać odpowiedzialności mówiąc, że wykonywały tylko polecenia algorytmu.
Pisarz dołącza więc do niemałego grona osób, które krytykują nie tyle samą sztuczną inteligencję, co system, w którym z dużym prawdopodobieństwm dojdzie do nadużyć. Z drugiej strony, jak pisze Maciej Chojnowski na serwisie sztucznainteligencja.org.pl:
(...) pożytków płynących z rynkowej demokratyzacji SI jest wiele. To przede wszystkim wzrost innowacyjności i rozwój gospodarki, ale też realne korzyści dla społeczeństwa: poprawa jakości życia, lepsza diagnostyka medyczna czy możliwość trafniejszego przewidywania zmian klimatycznych.
Jak więc powinny wyglądać regulacje AI? Jak ją uspołecznić, by nie była wykorzystana przeciwko obywatelom, a na ich korzyść?
Sieci neuronowe charakteryzują się m.in. obecnością tzw. czarnych skrzynek. Inaczej niż w samolotach, czarne skrzynki w sztucznej inteligencji oznaczają zjawisko, którego nie jesteśmy w stanie zrozumieć. Twórcy algorytmu nie zawsze bowiem wiedzą, jak doszedł on do konkretnych wniosków. Trzeba więc zadać sobie pytanie, czy w ogóle technicznie możliwe jest uspołecznienie technologii, której w pełni nie rozumiemy? Fundamentem demokracji - przynajmniej w założeniu - jest przejrzystość instytucji i firm. W przypadku AI albo jej zaufamy, albo będziemy musieli rozszerzyć własne możliwości poznawcze, tak by ją zrozumieć i kontrolować.
Podstawą demokracji jest też powszechność. Można mieć wątpliwości, czy ktoś poza korporacjami, dysponującymi ogromnym kapitałem finansowym i wiedzy będzie w stanie stworzyć zaawansowany algorytm sztucznej inteligencji. Ale może nie jest tak źle?
Moi studenci już na drugim roku tworzą proste modele mogące być podstawą algorytmu, których ma ich doprowadzić do poziomu ChatGPT za kilka lat. Więc to nie jest, że to jest niewykonalne i nie wiemy, jak to zrobić
- przekonuje Aleksandra Przegalińska w rozmowie z Gazeta.pl. Zwraca jednak uwagę, że tempo rozwoju algorytmu rozbija się o pieniądze i ilość danych, którymi dysponujemy, zaś korporacje w tej materii mają wyraźną przewagę. Naukowczyni przywołuje też GPT-J, który jest open source'owym modelem opartym o GPT. Wyjaśnia, że model ten jest słabszy niż Chat-GPT, ale szybko dodaje, że mimo wszystko jest jednak dostępny i działa.
Zdaniem Damiana Przekopa, analityka Deloitte, o tym, że demokratyzacja AI postępuje, świadczy choćby popularność Kaggle. To "internetowa społeczność naukowców zajmujących się danymi i praktyków uczenia maszynowego. By zrozumieć, jak bardzo nieuświadamianym gigantem jest ta platforma, warto przytoczyć kilka liczb. Społeczność ta budowana jest już od 13 lat i gromadzi ponad 8 milionów użytkowników ze 194 krajów. Umożliwia ona dostęp do 50 tys. zbiorów danych oraz 400 tys. notebook’ów".
Przegalińska podkreśla, że wciąż wiele zależy od tego, jak pokierujemy technologią:
Może to pójść w dwie strony. Może być kilku liderów rynku, od których inni będą zależeć i dojdzie do nowego rozdania w świecie technologicznych oligopoli. Z drugiej strony, technologia AI jest młoda, ludzie ją zauważyli, więc jest wciąż szansa na jakiś pluralizm.
Te same kwestie poruszał Kongres USA podczas przesłuchania Sama Altmana w sprawie AI. Politycy podkreślili, że gdy rodziły się media społecznościowe, regulatorzy przespali moment, w którym można było je uregulować. Przez to obudziliśmy się w świecie, w którym korporacje technologiczne mają władzę równą państwom, a Facebook przyczynił się nawet do ludobójstwa Rohindżów w Mjanmie.
Wśród zagrożeń, jakie może przynieść demokratyzacja AI wymienia się natomiast m.in. zjawisko code bias, czyli dyskryminacji przez kod. Nawet gdy wydaje nam się, że bezosobowy algorytym podejmuje decyzje, nie kierując się uprzedzeniami, to często jest to złudzenie. Kod mogła pisać uprzedzona osoba. Uprzedzenia mogą też nieść dane, którymi nakarmiliśmy model podczas nauki.
Jest też aspekt środowiskowy: uspołecznienie AI wymaga jej upowszechnienia, a to z kolei generuje olbrzymie zapotrzebowanie na energię. Nawet te optymalnie napisane sieci neuronowe potrafią "wytworzyć tyle ton CO2, ile 57 mieszkańców naszego globu w ciągu całego roku kalendarzowego czy też samolot z 316 pasażerami na pokładzie pokonujący drogę z Nowego Jorku do San Francisco" - pisze Damian Przekop za badaniem "Energy and Policy Considerations for Deep Learning in NLP" Emmy Strubel, Ananya Ganesjy oraz Andrew McCalluma.
Ponadto powszechne użycie AI, bez umiejętności analizy danych wyjściowych, może również okazać się zwodnicze. Ciekawy przykład przywołał tutaj Jakub Skałbania, programista i przedsiębiorca, który pisał:
"Możemy dowiedzieć się od platformy AI, że naszymi idealnymi klientami są ci, którzy spełniają wszystkie poniższe warunki:
Skałbania uważa, że korzystanie ze sztucznej inteligencji przez osoby, które nie rozumieją jej podstawowych zasad funkcjonowania prowadzi do wyciągania wniosków, które są "nie tylko błędne i głupie, ale co gorsza niebezpieczne". Jeśli dotyczy to marketingu, problem nie jest zbyt duży. Jakub Skałbania podkreśla jednak, że to amatorskie podejście do AI stosuje się w medycynie, wymiarze sprawiedliwości i psychologii. "A tak być nie powinno" - podsumowuje ekspert.
Jan Zygmuntowski, ekonomista specjalizujący się w gospodarce cyfrowej, zaproponował w rozmowie z Gazetą.pl, by w przypadku mediów społecznościowych wprowadzić cyfrowych ławników i oddać władzę w ręce ludzi. - Byliśmy tylko odbiorcami social mediów. Pytanie, czy w przypadku OpenAI możemy być współtwórcami tej technologii? - zastanawia się Aleksandra Przegalińska i sama sobie odpowiada:
Dopuszczenie ludzi do współtworzenia AI, do współpracy z tymi modelami może być nieuchronne. Jeżeli ludzie wylądują na bezrobociu technologicznym, sztuczna inteligencja będzie działać dla jakiejś garstki kapitalistów i będą oni konsolidować swój majątek, a reszta będzie w totalnym ubóstwie, to to jest droga donikąd. Tych ludzi nie będzie stać na nic, będą żyli na jakiejś cyfrowej jałmużnie
Naukowczyni uważa, że w kapitalizmie konieczne są zbilansowane modele finansowania. Takie, w których nie opieramy się na dataizmie, czyli sprzedaży danych, ale na modelach subskrypcyjnych, bez "kradzieży czy cwaniackiego podejścia do danych". W takim modelu działa dziś ChatGPT, który za 20 dol. miesięcznie daje dostęp do wersji PRO.
Są też tacy, co na zagrożenie zagarnięcia AI przez oligopole odpowiadają propozycją wyjścia z kapitalizmu. Padają więc pomysły wspólnic danych i spółdzielczych modeli posiadania technologii, w których to do ludzi należą bazy danych, na których można trenować AI i to ludzie decydują, co zrobić z algorytmem. Podobny model w Polsce promuje inicjatywa Coop Tech Hub, w której działa wspominany już Jan Zygmuntowski. W wywiadzie "Twórcy AI powinni przyjąć odpowiedzialność. Pora na bunt programistów" z Forsal.pl ekonomista podkreślał, że ważne jest, by obywatele zaangażowali się sami w takie działania i tworzyli aktywnie cyfrową rzeczywistość.
Także Jennifer Wortman Vaughan i Hanna Wallach z Microsoft Research uważają, że "trzeba jeszcze uwzględniać potrzeby różnych interesariuszy: programistów, użytkowników czy klientów. Każda z tych grup ma nie tylko inne umiejętności, ale też różne potrzeby. Jeśli dodać do tego zróżnicowanie obszarów, w których SI może być wykorzystywana, widać, że myślenie o różnych oczekiwaniach odbiorców SI jest priorytetowe" - referuje ich poglądy Chojnowski.
Modele AI muszą być ponadto transparentne - przekonuje Przegalińska. - Nakaz transparentności to już jest zmiana. Dzięki temu wiedzielibyśmy, co siedzi w tych modelach, jakimi danymi zostały nakarmione, a ci, którzy byli darczyńcami wiedzy mieliby z tego uczciwe benefity. To już jest forma współdzielenia technologii, transparentność, otwartość - uważa ekspertka od AI.
Już od jakiegoś czasu mówi się też, że sztuczna inteligencja, a wraz z nią większa automatyzacja, miałyby finansować bezwarunkowy dochód gwarantowany. Andrew Yang, który kandydował w wyborach prezydenckich i na stanowisko burmistrza Nowego Jorku (przegrał obie kampanie) proponował wprowadzenie "freedom dividend", czyli 1 tys. dol. miesięcznie dla Amerykanów, co miałoby być gwarancją, że każdy obywatel skorzysta na automatyzacji pracy. Nie był jedyny. Zdaniem Przegalińskiej teraz pomysł może wrócić ze zdwojoną siłą.
Niektórzy wręcz mówią o cyfrowym komunizmie w luksusowej odsłonie, gdzie możemy pracować mniej. Najpierw cztery dni, potem krócej. W takim cyfrowym kibucu praca staje się pewnego rodzaju chęcią i przywilejem, ale nie koniecznością
- mówi naukowczyni i dodaje, że obojętne, w jakim modelu ekonomicznym, byśmy się poruszali, to w demokratyzacji AI "jest nadzieja i siła na to, żeby ta technologia była lepsza, żeby mniej halucyowała (zmyślała - red.), żeby była bardziej godna zaufania".
Wszyscy eksperci zgodnie podkreślają rolę edukacji i to na wielu poziomach. Jak pisze Maciej Chojnowski, futurystka Amy Web uważa, "że uczelnie kształcące przyszłych speców od SI powinny dbać o większą różnorodność wśród studentów, a także rozszerzyć program nauczania o etykę i wiedzę o człowieku". Przegalińska w tej materii opowiada się za modelem collaborative AI (współpraca człowieka z AI tu i teraz - red.), w którym sztuczna inteligencja jest "technologią wspierającą, a nie efektywnie wypierającą człowieka i prowadzącą do sytuacji, w której przestajemy się rozwijać".
Szczęśliwie te modele momentami są nadal dosyć głupie, więc człowiek nie może w pełni na nich polegać
- podsumowuje Aleksandra Przegalińska, podkreślając jednak, że wszyscy - i pokolenie tzw. digital natives i starsze pokolenia - muszą mieć tego pełną świadomość.