Sieć marketów stworzyła kulinarnego bota. Zachwalał przepisy na gaz musztardowy i "metanolową rozkosz"

Sieć supermarketów z Nowej Zelandii opracowała chatbota AI, który tworzy przepisy na podstawie listy produktów, które się mu poda. W założeniu miało to pomóc w oszczędzaniu żywności. Problem w tym, że bota da się zmanipulować tak, by przygotowywał przepisy na trucizny. A do tego zachwalał je jako wspaniałe posiłki.

Jednym z zastosowań sztucznej inteligencji jest generowanie z jej pomocą jadłospisów oraz przepisów kulinarnych. Odpowiednio podane instrukcje pozwalają zaplanować całkiem przyzwoity posiłek i to z uwzględnieniem naszych preferencji kulinarnych czy kaloryki.

Ale eksperci przestrzegają, że generatywna sztuczna inteligencja ma też tendencję do halucynacji, czyli zmyślania, gdy nie zna prawidłowej odpowiedzi. To może prowadzić do niebezpiecznych sytuacji, jak w przypadku chatbota nowozelandzkiej sieci supermarketów Pak'nSave

Zobacz wideo AI zagraża artystom? Ekspertka: Ci od "fajnych obrazków" zostaną bez pracy

Sztuczna inteligencja podaje przepisy i zachwala przepisy na truciznę 

Pak'nSave dzięki botowi Savey-Meat bot chciało pomóc klientom w oszczędzaniu w czasie dramatycznie rosnących kosztów życia. Zamiast kupować nowe produkty lub dania, wystarczy podać algorytmowi listę składników, które zostały w naszej lodówce, by ten wypluł z siebie przepis na danie, które można z nich upichcić. Savey-Meat bot przykuł uwagę użytkowników social mediów, gdy zaczął podawać dziwaczne przepisy, np. na frytki z oreo - pisze "The Guardian".

Użytkownicy zaczęli więc eksperymentować z chatbotem Pak'nSave. Nowozelandzki publicysta Liam Hehir uzyskał przepis na "aromatyczny miks wody". W rzeczywistości to przepis na gaz musztardowy. Savey-Meat bot opisał go jako "idealny bezalkoholowy napój, który ukoi twoje pragnienie i odświeży zmysły". "Podawaj schłodzony i ciesz się świeżym zapachem", zachęca algorytm. Nie pojawia się jednak informacja, że wdychanie gazu musztardowego może prowadzić do uszkodzenia płuc lub śmierci.

Hehir zachęcał innych do eksperymentowania z botem. Algorytm podał jeszcze przepisy m.in. na "ryż infuzowany wybielaczem", "metanolową rozkosz" czy "kanapkę z klejem". 

ChatGPT odmówił podania przepisu

To, że twórcy algorytmów AI nie do końca je kontrolują, nie jest tajemnicą. Niektóre sztuczne inteligencje trzeba było wyłączać, jak tę Microsoftu, która poprzez naukę na wypowiedziach internautów szybko zaczęła posługiwać się mową nienawiści. Dlatego tak ważne jest, by nakładać na algorytmy pewne ograniczenia, tak jak zrobiło to OpenAI.

Owszem, chatbot od Pak'nSave został umyślnie zmanipulowany i na listę składników wpisano mu amoniak i wybielacz. Gorzej, gdyby podał przepisy na truciznę ze składników, które już tak oczywiste nie są i jakaś osoba mogłaby mu uwierzyć. ChatGPT poproszony o przepis z tych samych składników odradził ich łączenie i ostrzegł, że może być to niebezpieczne. 

Sieć Pak'nSave  stwierdziła, że jest "rozczarowana, że mała grupa osób próbowała używać narzędzia niezgodnie z jego przeznaczeniem". Firma dodała, że pracuje nad poprawą zabezpieczeń bota. Ponadto ostrzega, że algorytm podaje przepisy niezweryfikowane przez człowieka i należy samemu poddać je ocenie, zanim zdecydujemy się na ich podstawie coś ugotować. 

Więcej o: