Jednym z zastosowań sztucznej inteligencji jest generowanie z jej pomocą jadłospisów oraz przepisów kulinarnych. Odpowiednio podane instrukcje pozwalają zaplanować całkiem przyzwoity posiłek i to z uwzględnieniem naszych preferencji kulinarnych czy kaloryki.
Ale eksperci przestrzegają, że generatywna sztuczna inteligencja ma też tendencję do halucynacji, czyli zmyślania, gdy nie zna prawidłowej odpowiedzi. To może prowadzić do niebezpiecznych sytuacji, jak w przypadku chatbota nowozelandzkiej sieci supermarketów Pak'nSave
Pak'nSave dzięki botowi Savey-Meat bot chciało pomóc klientom w oszczędzaniu w czasie dramatycznie rosnących kosztów życia. Zamiast kupować nowe produkty lub dania, wystarczy podać algorytmowi listę składników, które zostały w naszej lodówce, by ten wypluł z siebie przepis na danie, które można z nich upichcić. Savey-Meat bot przykuł uwagę użytkowników social mediów, gdy zaczął podawać dziwaczne przepisy, np. na frytki z oreo - pisze "The Guardian".
Użytkownicy zaczęli więc eksperymentować z chatbotem Pak'nSave. Nowozelandzki publicysta Liam Hehir uzyskał przepis na "aromatyczny miks wody". W rzeczywistości to przepis na gaz musztardowy. Savey-Meat bot opisał go jako "idealny bezalkoholowy napój, który ukoi twoje pragnienie i odświeży zmysły". "Podawaj schłodzony i ciesz się świeżym zapachem", zachęca algorytm. Nie pojawia się jednak informacja, że wdychanie gazu musztardowego może prowadzić do uszkodzenia płuc lub śmierci.
Hehir zachęcał innych do eksperymentowania z botem. Algorytm podał jeszcze przepisy m.in. na "ryż infuzowany wybielaczem", "metanolową rozkosz" czy "kanapkę z klejem".
To, że twórcy algorytmów AI nie do końca je kontrolują, nie jest tajemnicą. Niektóre sztuczne inteligencje trzeba było wyłączać, jak tę Microsoftu, która poprzez naukę na wypowiedziach internautów szybko zaczęła posługiwać się mową nienawiści. Dlatego tak ważne jest, by nakładać na algorytmy pewne ograniczenia, tak jak zrobiło to OpenAI.
Owszem, chatbot od Pak'nSave został umyślnie zmanipulowany i na listę składników wpisano mu amoniak i wybielacz. Gorzej, gdyby podał przepisy na truciznę ze składników, które już tak oczywiste nie są i jakaś osoba mogłaby mu uwierzyć. ChatGPT poproszony o przepis z tych samych składników odradził ich łączenie i ostrzegł, że może być to niebezpieczne.
Sieć Pak'nSave stwierdziła, że jest "rozczarowana, że mała grupa osób próbowała używać narzędzia niezgodnie z jego przeznaczeniem". Firma dodała, że pracuje nad poprawą zabezpieczeń bota. Ponadto ostrzega, że algorytm podaje przepisy niezweryfikowane przez człowieka i należy samemu poddać je ocenie, zanim zdecydujemy się na ich podstawie coś ugotować.