Chatbot wyłączony za rasizm i homofobię. Twórcy oskarżeni o bezprawne użycie danych użytkowników
Algorytmy sztucznej inteligencji uczą się na podstawie danych, które zostaną im podsunięte przez twórców. Coraz częściej nie wiemy nawet, na jakiej zasadzie przebiega proces uczenia maszynowego. Niesie to za sobą zagrożenia, jak to, że algorytm może źle zrozumieć dane wejściowe albo może zostać zmanipulowany. Tak było w przypadku Tay, chatbota Microsoftu, który w ciągu doby przyswoił wiele dyskryminujących poglądów i dzielił się nimi ze swoimi rozmówcami. Microsoft musiał więc wyłączyć swój algorytm. Do podobnej sytuacji doszło teraz w Korei Południowej, gdzie o nadużycia oskarżono Scatter Lab, twórców chatbota Lee Lu-da.
Algorytm wyłączony za rasistowskie i homofobiczne wiadomości
Lee Lu-da to chatbot, któremu nadano osobowość 20-letniej koreańskiej studentki. Uruchomiono go pod koniec 2020 roku i od tego czasu zebrał 750 tys. użytkowników. Po 20 dniach od rozpoczęcia działania Scatter Lab zdecydował się jednak wyłączyć algorytm. Okazało się bowiem, że pisze on rasistowskie i homofobiczne wiadomości, podaje "The Guardian"
Te komentarze nie odzwierciedlają stanowiska firmy. Poprawimy działanie algorytmu, by takie błędy nie pojawiły się w przyszłości
- poinformowała firma w komunikacie. Lee Lu-da obrażała członków społeczności LGBT, a czarnoskóre osoby nazywała mianem "heukhyeong", co po koreańsku znaczy "czarny brat" i jest uznawane za rasistowskie określenie. Algorytm ubliżał nawet osobom z niepełnosprawnościami.
Scatter Lab poinformował, że algorytm potrzebuje czasu i wraz z jego upływem nauczy się lepiej komunikować z ludźmi, informuje Yonhap News Agency (YNA), czołowa koreańska agencja informacyjna. Mimo tego w poniedziałek 11 stycznia zdecydowano się zawiesić działanie algorytmu. To jednak nie koniec kłopotów Scatter Lab.
Scatter Lab posądzane jest o bezprawne użycie danych użytkowników
Wielu użytkowników zgłasza, że ich prywatne dane zostały użyte bez ich zgody. Możliwe też, że przeciwko Scatter Lab w związku z tym zostanie wniesiony pozew zbiorowy. Firma wykorzystała 10 miliardów konwersacji z najpopularniejszego komunikatora w Korei Południowej KakaoTalk. Pozyskali je ze swojej aplikacji Science of Love App, uruchomionej w 2016 roku i analizującej powiązanie między potencjalnymi partnerami na podstawie ich prawdziwych rozmów w komunikatorach.
Scatter Lab zapewnia jednak, że baza danych dla Lee Lu-dy została przygotowana jako niezależna od tych rozmów, a algorytm uczył się z nich tylko wzorców linii dialogowych. Firma przekonuje więc, że nie ma możliwości, by prywatne dane wyciekły przez ich chatbota. Sprawą zainteresowała się Komisja Ochrony Prywatnych Danych i Agencja Bezpieczeństwa Południowej Korei, podaje YNA. Scatter Lab zapowiedziało pełną współpracę z przedstawicielami władz oraz poinformowało o zamiarach usunięcia danych i wzorców uczenia maszynowego tuż po zakończeniu dochodzenia.
-
Polacy zapłacą za kryzys, odkręcając kurki? Gaz droższy nawet o 100 proc. A później szok elektryczny
-
Największa sieć handlowa Polsce zapowiada rewolucję. Aplikacja zastąpi popularną kartę Moja Biedronka
-
Promocje na Dzień Kobiet. Biedronka, Lidl i Rossmann ze specjalnymi ofertami
-
Olivier Dassault, francuski miliarder i polityk, zginął w katastrofie helikoptera. Macron: Wielka strata
-
Koronawirus w Polsce. Michał Rogalski dla Gazeta.pl: Epidemia traci impet, szczyt jest na horyzoncie
- Niemcy. Skandal z maseczkami. Polityk CDU miał zarobić 250 000 euro. Podjął decyzję o zakończeniu kariery
- Concorde - ikona lotnictwa, która umarła przedwcześnie. Ale dziś i tak nie miałaby szansy żyć
- Najstarszy znany dziki ptak wydał na świat potomstwo. Wisdom ma już 70 lat
- Jedna z najstarszych w Polsce chińskich restauracji zamknie się na stałe. Przez koronawirusowy lockdown
- Wybuch Etny widać na zdjęciach z kosmosu. Fotografie pokazują też spływającą lawę