Czy ChatGPT jest bezpieczny? Ekspert: Ludzie nigdy nie powinni wierzyć algorytmowi

- Ludzie nigdy nie powinni wierzyć algorytmowi na 100 proc., ponieważ nie znamy w pełni danych źródłowych, na podstawie których powstała odpowiedź na nasze zapytanie - ostrzega Lori MacVittie w rozmowie z Gazeta.pl. - Jeżeli ktoś udostępnił algorytmowi swoje fotografie z wakacji, powinien się liczyć z tym, że może kiedyś spotkać się ze swoją podobizną na banerze reklamowym - wymienia zagrożenia korzystania z platform opartych na sztucznej inteligencji.

Aplikacje posługujące się algorytmami sztucznej inteligencji zyskują w ostatnich miesiącach na popularności. Media społecznościowe zalewają obrazki stworzone przez AI, a Chat GPT wyręcza uczniów w pisaniu wypracowań i rozprawek. Jak działają takie aplikacje i czy stosowanie ich jest bezpieczne dla użytkowników? Zapytaliśmy o to ekspertów amerykańskiej firmy technologicznej specjalizującej się w zapobieganiu oszustwom internetowym F5 - Lori MacVittie, główna inżynierka F5 oraz Bartłomieja Anszpergera, solution engineering menadżera marki w Polsce.

Zobacz wideo [MATERIAŁ REKLAMOWY] Czy kaucja za plastikową butelkę zwiększy świadomość konsumentów i pomoże producentom napojów zachować neutralność plastikową, chroniąc środowisko? Rozmowa z profesorem Arturem Bartkowiakiem

Eryk Kielak: Jak działają strony oparte na sztucznej inteligencji np. ChatGPT lub generator zdjęć DALL-E?

Lori MacVittie (CTO, Główny Inżynier w F5): Witryny internetowe zawierające aplikacje ze sztuczną inteligencją nie różnią się niczym od innych interaktywnych stron www. Wbudowany interfejs API zapewnia wymianę danych pomiędzy witryną a serwerem, na którym działa algorytm AI. Innymi słowy, takie strony stanowią bramę wejściową albo okno, za pomocą którego użytkownik komunikuje się z serwerem, a w zasadzie chmurą, na której umieszczono aplikację. Interfejs API jest "bramą" dla modelu AI, która przetwarza przychodzące zapytania i przekazuje wygenerowaną odpowiedź.

Skąd, więc biorą się treści, które są publikowane w tych generatorach?

Treść tworzona przez sztuczną inteligencję w formie obrazu lub tekstu powstaje w wyniku pracy modelu stojącego za daną aplikacją. Interesującym zagadnieniem jest tutaj kwestia prawa autorskiego. Model sztucznej inteligencji nie tworzy bowiem tej treści w pełni samodzielnie, tylko przetwarza dane źródłowe. Czy tekst wyszukany przez algorytm w sieci, który posłuży za odpowiedź dla ChatuGPT to plagiat? Takie pytanie dzisiaj musimy sobie zadać, rozmawiając o popularnych aplikacjach AI.

To ja zapytam - gdzie w takim razie leży granica między kopiowaniem treści a inspirowaniem się?

To trudne pytanie, na które pilnie potrzebujemy odpowiedzi, ponieważ wkroczyliśmy w nową cyfrową erę, w której granice między "oryginalnymi" i "skopiowanymi" treściami są bardzo niejasne. Czy dzieła sztuki tworzone przez algorytm zasługują na to miano? Treści AI powstają poprzez obserwację wielu różnych stylów i technik artystycznych, które są następnie stosowane do wykreowania czegoś nowego.

Słuchamy wielkich muzyków i próbujemy naśladować ich styl i technikę. Maszyny robią to samo, ale w znacznie krótszym czasie. Czy to sprawia, że są gorszymi muzykami niż ludzie? Lista takich pytań jest długa, ale motyw przewodni jest ten sam i odnosi się do filozoficznego pytania: co znaczy być człowiekiem? Dynamiczny rozwój AI pokazuje nam, że niektóre z naszych odwiecznych założeń, które polegają na kreatywności i sztuce jako składowej tej definicji, stają się nieprawdziwe.

Przejdźmy do cyberbezpieczeństwa. Czy to wyłącznie zabawa, czy aplikacje AI mogą również stwarzać realne zagrożenie?

I to, i to! Algorytmy AI zapewniają świetną rozrywkę, ale stają się także nowym źródłem ryzyka. Zacznijmy od tego, że ludzie nigdy nie powinni wierzyć algorytmowi na 100 proc., ponieważ nie znamy w pełni danych źródłowych, na podstawie których powstała odpowiedź na nasze zapytanie. Nieraz widzieliśmy treści generowane, które są całkowicie błędne, lub zostały "stworzone z powietrza". Wiara w to, co mówi nam maszyna, która rzekomo nie powinna kłamać, stanowi prawdziwe ryzyko. I to jest pierwszy rodzaj zagrożeń, z którymi wiąże się korzystanie z otwartych aplikacji AI.

Co z udostępnianymi danymi?

Drugim obszarem krytycznym jest właśnie przetwarzanie danych. Niektóre aplikacje, które przerabiają przesłane przez użytkowników obrazy, zachowują materiał źródłowy i automatycznie nabywają prawa autorskie. Z jednej strony ubogacają nimi swoje repozytorium, z którego czerpią przy tworzeniu kolejnych materiałów. Z drugiej jednak strony, właściciele algorytmów mogą później wykorzystywać te zdjęcia i odsprzedawać je innym podmiotom. Podsumowując, jeżeli ktoś udostępnił algorytmowi swoje fotografie z wakacji, powinien się liczyć z tym, że może kiedyś spotkać się ze swoją podobizną na banerze reklamowym. Oczywiście, informacje o przetwarzaniu danych powinny być zamieszczone w regulaminie, jednak nie każdy zwraca na to baczną uwagę.

Ostatnim rodzajem zagrożeń jest zaangażowanie sztucznej inteligencji w tworzenie kodu źródłowego. Wykorzystanie AI do tworzenia oprogramowania umożliwia różnym osobom kreowanie nowych aplikacji. Ten trend wykorzystują cyberprzestępcy, którzy przy pomocy sztucznej inteligencji przygotowują nowe narzędzia do atakowania internautów. Pisanie przez AI skryptów wykorzystywanych w cyberatakach staje się coraz powszechniejsze.

Czy zatem korzystanie z tych aplikacji internetowych jest bezpieczne?

Wszystko zależy od indywidualnej definicji bezpieczeństwa. Interaktywne strony zawierające moduły ze sztuczną inteligencją zbierają mnóstwo danych. Dzięki temu mogą się rozwijać. Niektóre z nich wprost mają zapisane w regulaminach, że mogą później przetwarzać informacje otrzymane od użytkownika. Natomiast za wykorzystanie treści i materiałów wyprodukowanych przez algorytm odpowiada już sam użytkownik. Także to on jest odpowiedzialny za konsekwencje - te dobre i te złe.

Pomówmy trochę o możliwościach sztucznej inteligencji w zakresie usług publicznych. Czy AI jest postrzegana przez rządzących jako szansa, czy jako zagrożenie?

Bartłomiej Anszperger: Komercyjne aplikacje takie jak Chat GPT czy DALL-E raczej nie znajdą zastosowania w sektorze publicznym, jednak sztuczna inteligencja oferuje znacznie szerszy zakres możliwości. Niebawem wystartuje Rządowa Chmura Obliczeniowa (RChO). To tylko jedno z miejsc, gdzie algorytmy AI będą mogły się wykazać. Patrząc na rozwój takich projektów jak Chmura Krajowa, czy wspomniana RChO, widać, że krajowi decydenci widzą potencjał w tej technologii. Aparat administracji państwa w końcu każdego dnia procesuje niewiarygodnie wielką ilość danych. Zatem w tym aspekcie jest przestrzeń na rozwój technologii uczenia maszynowego czy sztucznej inteligencji. 

Z perspektywy sektora publicznego krytyczne znaczenie ma jednak bezpieczeństwo, m.in. z uwagi na wojnę w Ukrainie. Dlatego instytucje państwowe wykazują się swoistą ostrożnością we wdrażaniu nowoczesnych technologii.

Czy sztuczna inteligencja odgrywa jakąś rolę we wspominanej  wojnie w Ukrainie?

Z pewnością, jednak do przestrzeni publicznej dociera jedynie ułamek informacji na ten temat. Według doniesień medialnych ponad 1000 inżynierów pracuje nad wykorzystaniem algorytmów AI do obserwacji frontu. Ponownie, sztuczna inteligencja agreguje i przetwarza dane zbierane przez tysiące, a może nawet miliony źródeł i tworzy z nich szerszy obraz pozwalający dowódcom podejmować strategiczne decyzje. Tak jak w przypadku Chat GPT, AI stosowana w Ukrainie porządkuje strumienie danych. Dzięki temu zastępuje setki analityków, którzy dotychczas takie informacje musieli samodzielnie zbierać. Myślę, że prędzej czy później poznamy skalę zastosowania sztucznej inteligencji do działań wojskowych. Na ten moment jest jeszcze za wcześnie by określić dokładne rozwiązania i technologie używane na wojnie.

Więcej o: