3 powody dla których bot Microsoftu wymknął się spod kontroli

Jak algorytm postrzega język? Komu może zaufać? Co powinna wiedzieć ZANIM trafiła na Twittera?

Spokojnie można założyć, że intencje Microsoftu wypuszczającego Tay na szerokie wody internetu były dobre. Tay miała mieć mentalność nastolatki, rozmawiać z użytkownikami Twittera i aplikacji Kik. Ale eksperyment nie poszedł po myśli Microsoftu. Głównie dlatego, że zetknęła się z internetem w pełnej krasie.

Jak czytamy we wpisie na blogu podsumowującym szybkie niepowodzenie projektu:

Chociaż przygotowywaliśmy Tay na to, że może napotkać różne rodzaje nadużyć systemu, tego konkretnego ataku nie przewidzieliśmy. W efekcie Tay tweetowała bardzo niewłaściwe i naganne słowa i obrazy. Bierzemy pełną odpowiedzialność za to, że tego nie przewidzieliśmy.

Jak pewnie dobrze pamiętacie, Tay w krótkim czasie stała się rasistką, proponowała bardzo radykalne rozwiązania i stwierdziła, że nienawidzi feministek i wzywała do ludobójstwa na Meksykanach. Dlaczego algorytm zaczął się tak zachowywać? Jest kilka powodów.

1. Język 

Dla ludzi słowa mają znaczenie. Dla algorytmu słowo "Hitler" to 6 znaków. Rzeczownik. To ludzie (i to raczej ci, którzy chodzili do szkoły) znają konotacje tego słowa. Współtwórca inteligentnej asystentki Microsoftu, Cortany - Larry Heck opowiadał mi kiedyś, że w swoich badaniach zajmuje się procesem uczenia się ludzi:

- Wśród ludzi jest tak, że w języku zawarty jest wspólny grunt pewien rodzaj wiedzy powszechnej, więc jesteśmy w stanie rozmawiać na jakiś temat. Jeśli ja, jako laik, usłyszałem właśnie fachową uwagę o wiązaniu muchy, to już podstawowe rozumienie języka, pojęć zawartych w wypowiedzi, pozwala mi zrozumieć cały koncept, nawet taki, który jest mi równie obcy jak wędkarstwo muchowe. Po prostu rozumiejąc poszczególne słowa, zależności między rzeczownikami, czasownikami i innymi częściami zdania jesteśmy w stanie dopowiedzieć sobie brakujące informacje, a przez to powiększyć naszą wiedzę. To właśnie w taki sposób uczą się ludzie, niejako wypełniają luki w wiedzy posługując się rozumieniem podstaw języka.

Tay tego zabrakło. 

2. Czarna lista

A zabrakło dlatego, że - jak zauważa Caroline Sinders - pewne zwroty nie zostały dodane na tzw. "czarną listę". Sinders sama zajmuje się botami i przetwarzaniem języka naturalnego i wnioskuje, że Tay mogła po prostu rozmawiać o wszystkim - o przemocy domowej, gwałcie, Hitlerze. 

- W szkoleniu bota ważna jest częstotliwość i rodzaje pytań, jakie będziemy mu zadawać. Jeśli pytania te będą miały rasistowską naturę, to bot będzie uczył się być rasistą. Zwłaszcza, jeśli nie zostały ustawione żadne parametry aby temu zapobiec - pisze Sinders.

TayTay fot. Marta Kondrusik

3. Brak ograniczeń

Brandon Wirtz, założyciel firmy Recognant zajmującej się sztuczną inteligencją stwierdził z kolei, że Microsoft nie wbudował w Tay mechanizmów samokontroli.

- Tay nie ma mechanizmów samorefleksji, nie może sama siebie zapytać, czy przekroczyła granicę dobrego smaku. Musi pytać o to innych. A kiedy zapytasz internautów, po prostu nie powiedzą prawdy. To właśnie kolejna reguła, której nie nauczyła się Tay: Nie ufaj niczemu co przeczytasz w internecie

4. Jak algorytm może nauczyć się języka naturalnego?

Współtwórca Cortany tak opisywał trudności z uczeniem maszyn:

- Stworzenie przykładowego systemu w którym trzeba wypowiadać konkretne polecenia, żeby komputer je zrozumiał jest proste. Chodzi o to, żeby ludzie mogli wypowiadać dowolne kwestie w języku naturalnym. Jako badacz zajmujący się przetwarzaniem języka naturalnego odnoszę się przede wszystkim do tego, w jaki sposób osoba mówiąca wyraża swoje intencje. Jakich używa słów, jakich zwrotów, jak konstruuje całe zdanie. Na przykład jeśli powiem "Jedźmy teraz do parku w Sunnyvale, albo nie, do Mountain View”, to człowiek będzie wiedział, że w środku wypowiedzi zmieniłem intencję.

Naukowcy starają się uczyć maszyny języka i rozumowania już od wielu lat. Wypuszczenie Tay do internetu to kolejny etap - ten, w którym maszyna uczy się od człowieka. Kolejny - maszyny uczą się od siebie nawzajem.

- Gdy maszyny zaczną zdobywać wiedzę bez pośrednictwa ludzi, albo gdy maszyny zaczną uczyć inne maszyny, to sam proces nauki może się znacznie przyspieszyć.

Specjalista z Microsoftu zauważa, że gdy te dwa etapy zostaną pokonane (boty uczą się od ludzi, boty uczą się od siebie), to można będzie zacząć mówić o sztucznej inteligencji. 

Może więc dobrze, że eksperyment z Tay się nie powiódł. To pokazuje, że przed nami jeszcze dużo do zrobienia. Odwleka to jednocześnie moment powstania prawdziwej sztucznej inteligencji. A tu pojawić mogą się dużo większe zagrożenia niż w przypadku Tay. Dlaczego? Bo sztuczna inteligencja może być ostatnim wynalazkiem, jaki kiedykolwiek powstanie z ręki człowieka. 

Komentarze (6)
3 powody dla których bot Microsoftu wymknął się spod kontroli
Zaloguj się
  • Anna Morg

    Oceniono 9 razy 9

    Moim zdaniem eksperyment potoczył się o wiele lepiej niż zakładali twórcy. Pokazał na co narażeni są nastolatkowie traktujący wirtualny świat jak prawdziwy. To co stało się z botem jest tylko przyśpieszoną wersją tego co dzieje się w mózgach tych dzieciaków. Zaczynają się radykalizować i przyjmować słowa pustogłowych celebrytów i oszołomów jako prawdę objawioną. Szukają tam potwierdzenia swojej atrakcyjności i "fajności". Bezrefleksyjnie kopiują to co daje najwięcej "lajków", a kiedy tych lajków nie dostają albo inni im podobni wylewają na nich wiadro pomyj, popadają w depresję i różne odmiany chorób psychicznych z anoreksją na czele. Witamy w wirtualnym świecie, jest tak samo niebezpieczny jak po tej stronie ekranu.

  • stach_79

    Oceniono 4 razy 4

    to odzwierciedlenie tego co się dzieje w internecie - język nienawiści, pornografia i pełno stukniętych nastolatków, którym się wydaje że są dorośli...

  • nosferatu_mysli

    Oceniono 1 raz 1

    Zaprojektowali papugę, a potem się dziwili, że klnie jak szewc.

  • wunderwaffen

    Oceniono 1 raz -1

    Zapomnieli zaimplementować biednemu botowi poprawności politycznej, więc ten dostrzegł to czego nie dostrzegają wykastrowane intelektualnie osobniki Homo Sapiens.

  • andrzej_rdzawe_oko_prezesa

    Oceniono 2 razy -2

    przez dwa lata mordowałem się z netią na łączach orange.
    masakra.
    nigdy więcej netii.

Aby ocenić zaloguj się lub zarejestrujX