Chatbot wyłączony za rasizm i homofobię. Twórcy oskarżeni o bezprawne użycie danych użytkowników

Koreański chatbot Lee Lu-da został wyłączony po tym, jak zaczął wysyłać rozmówcom homofobiczne i rasistowskie wiadomości. Przeciwko twórcom, Scatter Lab, prowadzone jest dochodzenie w sprawie nadużyć związanych z bezprawnym wykorzystaniem danych. Scatter Lab zapowiada usunięcie danych i algorytmów.

Algorytmy sztucznej inteligencji uczą się na podstawie danych, które zostaną im podsunięte przez twórców. Coraz częściej nie wiemy nawet, na jakiej zasadzie przebiega proces uczenia maszynowego. Niesie to za sobą zagrożenia, jak to, że algorytm może źle zrozumieć dane wejściowe albo może zostać zmanipulowany. Tak było w przypadku Tay, chatbota Microsoftu, który w ciągu doby przyswoił wiele dyskryminujących poglądów i dzielił się nimi ze swoimi rozmówcami. Microsoft musiał więc wyłączyć swój algorytm. Do podobnej sytuacji doszło teraz w Korei Południowej, gdzie o nadużycia oskarżono Scatter Lab, twórców chatbota Lee Lu-da. 

Zobacz wideo Czy pszczoły zostaną zastąpione przez roboty?

Algorytm wyłączony za rasistowskie i homofobiczne wiadomości

Lee Lu-da to chatbot, któremu nadano osobowość 20-letniej koreańskiej studentki. Uruchomiono go pod koniec 2020 roku i od tego czasu zebrał 750 tys. użytkowników. Po 20 dniach od rozpoczęcia działania Scatter Lab zdecydował się jednak wyłączyć algorytm. Okazało się bowiem, że pisze on rasistowskie i homofobiczne wiadomości, podaje "The Guardian"

Te komentarze nie odzwierciedlają stanowiska firmy. Poprawimy działanie algorytmu, by takie błędy nie pojawiły się w przyszłości

- poinformowała firma w komunikacie. Lee Lu-da obrażała członków społeczności LGBT, a czarnoskóre osoby nazywała mianem "heukhyeong", co po koreańsku znaczy "czarny brat" i jest uznawane za rasistowskie określenie. Algorytm ubliżał nawet osobom z niepełnosprawnościami.

Elon MuskElon Musk ostrzega przed sztuczną inteligencją

Scatter Lab poinformował, że algorytm potrzebuje czasu i wraz z jego upływem nauczy się lepiej komunikować z ludźmi, informuje Yonhap News Agency (YNA), czołowa koreańska agencja informacyjna. Mimo tego w poniedziałek 11 stycznia zdecydowano się zawiesić działanie algorytmu. To jednak nie koniec kłopotów Scatter Lab. 

Scatter Lab posądzane jest o bezprawne użycie danych użytkowników

Wielu użytkowników zgłasza, że ich prywatne dane zostały użyte bez ich zgody. Możliwe też, że przeciwko Scatter Lab w związku z tym zostanie wniesiony pozew zbiorowy. Firma wykorzystała 10 miliardów konwersacji z najpopularniejszego komunikatora w Korei Południowej KakaoTalk. Pozyskali je ze swojej aplikacji Science of Love App, uruchomionej w 2016 roku i analizującej powiązanie między potencjalnymi partnerami na podstawie ich prawdziwych rozmów w komunikatorach. 

Robot EricaSztuczna inteligencja dostała angaż w Hollywood. Robot zagra główną rolę

Scatter Lab zapewnia jednak, że baza danych dla Lee Lu-dy została przygotowana jako niezależna od tych rozmów, a algorytm uczył się z nich tylko wzorców linii dialogowych. Firma przekonuje więc, że nie ma możliwości, by prywatne dane wyciekły przez ich chatbota. Sprawą zainteresowała się Komisja Ochrony Prywatnych Danych i Agencja Bezpieczeństwa Południowej Korei, podaje YNA. Scatter Lab zapowiedziało pełną współpracę z przedstawicielami władz oraz poinformowało o zamiarach usunięcia danych i wzorców uczenia maszynowego tuż po zakończeniu dochodzenia.