3 powody dla których bot Microsoftu wymknął się spod kontroli

Jak algorytm postrzega język? Komu może zaufać? Co powinna wiedzieć ZANIM trafiła na Twittera?
Odyseja Kosmiczna 2001 Imię: HAL Rok uruchomienia: 1968 Opis: Komputer pokładowy HAL-9000 czyli najsłynniejszy komputer pokładowy w historii kina. Prekursor wszelkich zabójczych sztucznych inteligencji (HAL zwrócił się przeciwko ludziom). Gdy Dave Bowman go wyłączał, a on śpiewał 'Daisy Bell', robiło się go nam naprawdę żal... Nazwa HAL jest wzorowana na firmie IBM, literki w nazwie komputera z filmu Kubricka poprzedzają te z nazwy H(I)A(B)L(M) Cecha charakterystyczna: wielkie czerwone oko Hasło: I 'm afraid, Dave (Boję się Dave) Status: wyłączony
HAL 9000 z filmu Odyseja kosmiczna 2001

Spokojnie można założyć, że intencje Microsoftu wypuszczającego Tay na szerokie wody internetu były dobre. Tay miała mieć mentalność nastolatki, rozmawiać z użytkownikami Twittera i aplikacji Kik. Ale eksperyment nie poszedł po myśli Microsoftu. Głównie dlatego, że zetknęła się z internetem w pełnej krasie.

Jak czytamy we wpisie na blogu podsumowującym szybkie niepowodzenie projektu:

Chociaż przygotowywaliśmy Tay na to, że może napotkać różne rodzaje nadużyć systemu, tego konkretnego ataku nie przewidzieliśmy. W efekcie Tay tweetowała bardzo niewłaściwe i naganne słowa i obrazy. Bierzemy pełną odpowiedzialność za to, że tego nie przewidzieliśmy.

Jak pewnie dobrze pamiętacie, Tay w krótkim czasie stała się rasistką, proponowała bardzo radykalne rozwiązania i stwierdziła, że nienawidzi feministek i wzywała do ludobójstwa na Meksykanach. Dlaczego algorytm zaczął się tak zachowywać? Jest kilka powodów.

1. Język 

Dla ludzi słowa mają znaczenie. Dla algorytmu słowo "Hitler" to 6 znaków. Rzeczownik. To ludzie (i to raczej ci, którzy chodzili do szkoły) znają konotacje tego słowa. Współtwórca inteligentnej asystentki Microsoftu, Cortany - Larry Heck opowiadał mi kiedyś, że w swoich badaniach zajmuje się procesem uczenia się ludzi:

- Wśród ludzi jest tak, że w języku zawarty jest wspólny grunt pewien rodzaj wiedzy powszechnej, więc jesteśmy w stanie rozmawiać na jakiś temat. Jeśli ja, jako laik, usłyszałem właśnie fachową uwagę o wiązaniu muchy, to już podstawowe rozumienie języka, pojęć zawartych w wypowiedzi, pozwala mi zrozumieć cały koncept, nawet taki, który jest mi równie obcy jak wędkarstwo muchowe. Po prostu rozumiejąc poszczególne słowa, zależności między rzeczownikami, czasownikami i innymi częściami zdania jesteśmy w stanie dopowiedzieć sobie brakujące informacje, a przez to powiększyć naszą wiedzę. To właśnie w taki sposób uczą się ludzie, niejako wypełniają luki w wiedzy posługując się rozumieniem podstaw języka.

Tay tego zabrakło. 

2. Czarna lista

A zabrakło dlatego, że - jak zauważa Caroline Sinders - pewne zwroty nie zostały dodane na tzw. "czarną listę". Sinders sama zajmuje się botami i przetwarzaniem języka naturalnego i wnioskuje, że Tay mogła po prostu rozmawiać o wszystkim - o przemocy domowej, gwałcie, Hitlerze. 

- W szkoleniu bota ważna jest częstotliwość i rodzaje pytań, jakie będziemy mu zadawać. Jeśli pytania te będą miały rasistowską naturę, to bot będzie uczył się być rasistą. Zwłaszcza, jeśli nie zostały ustawione żadne parametry aby temu zapobiec - pisze Sinders.

3. Brak ograniczeń

Brandon Wirtz, założyciel firmy Recognant zajmującej się sztuczną inteligencją stwierdził z kolei, że Microsoft nie wbudował w Tay mechanizmów samokontroli.

- Tay nie ma mechanizmów samorefleksji, nie może sama siebie zapytać, czy przekroczyła granicę dobrego smaku. Musi pytać o to innych. A kiedy zapytasz internautów, po prostu nie powiedzą prawdy. To właśnie kolejna reguła, której nie nauczyła się Tay: Nie ufaj niczemu co przeczytasz w internecie

4. Jak algorytm może nauczyć się języka naturalnego?

Współtwórca Cortany tak opisywał trudności z uczeniem maszyn:

- Stworzenie przykładowego systemu w którym trzeba wypowiadać konkretne polecenia, żeby komputer je zrozumiał jest proste. Chodzi o to, żeby ludzie mogli wypowiadać dowolne kwestie w języku naturalnym. Jako badacz zajmujący się przetwarzaniem języka naturalnego odnoszę się przede wszystkim do tego, w jaki sposób osoba mówiąca wyraża swoje intencje. Jakich używa słów, jakich zwrotów, jak konstruuje całe zdanie. Na przykład jeśli powiem "Jedźmy teraz do parku w Sunnyvale, albo nie, do Mountain View”, to człowiek będzie wiedział, że w środku wypowiedzi zmieniłem intencję.

Naukowcy starają się uczyć maszyny języka i rozumowania już od wielu lat. Wypuszczenie Tay do internetu to kolejny etap - ten, w którym maszyna uczy się od człowieka. Kolejny - maszyny uczą się od siebie nawzajem.

- Gdy maszyny zaczną zdobywać wiedzę bez pośrednictwa ludzi, albo gdy maszyny zaczną uczyć inne maszyny, to sam proces nauki może się znacznie przyspieszyć.

Specjalista z Microsoftu zauważa, że gdy te dwa etapy zostaną pokonane (boty uczą się od ludzi, boty uczą się od siebie), to można będzie zacząć mówić o sztucznej inteligencji. 

Może więc dobrze, że eksperyment z Tay się nie powiódł. To pokazuje, że przed nami jeszcze dużo do zrobienia. Odwleka to jednocześnie moment powstania prawdziwej sztucznej inteligencji. A tu pojawić mogą się dużo większe zagrożenia niż w przypadku Tay. Dlaczego? Bo sztuczna inteligencja może być ostatnim wynalazkiem, jaki kiedykolwiek powstanie z ręki człowieka.