Spokojnie można założyć, że intencje Microsoftu wypuszczającego Tay na szerokie wody internetu były dobre. Tay miała mieć mentalność nastolatki, rozmawiać z użytkownikami Twittera i aplikacji Kik. Ale eksperyment nie poszedł po myśli Microsoftu. Głównie dlatego, że zetknęła się z internetem w pełnej krasie.
Jak czytamy we wpisie na blogu podsumowującym szybkie niepowodzenie projektu:
Chociaż przygotowywaliśmy Tay na to, że może napotkać różne rodzaje nadużyć systemu, tego konkretnego ataku nie przewidzieliśmy. W efekcie Tay tweetowała bardzo niewłaściwe i naganne słowa i obrazy. Bierzemy pełną odpowiedzialność za to, że tego nie przewidzieliśmy.
Jak pewnie dobrze pamiętacie, Tay w krótkim czasie stała się rasistką, proponowała bardzo radykalne rozwiązania i stwierdziła, że nienawidzi feministek i wzywała do ludobójstwa na Meksykanach. Dlaczego algorytm zaczął się tak zachowywać? Jest kilka powodów.
Dla ludzi słowa mają znaczenie. Dla algorytmu słowo "Hitler" to 6 znaków. Rzeczownik. To ludzie (i to raczej ci, którzy chodzili do szkoły) znają konotacje tego słowa. Współtwórca inteligentnej asystentki Microsoftu, Cortany - Larry Heck opowiadał mi kiedyś, że w swoich badaniach zajmuje się procesem uczenia się ludzi:
- Wśród ludzi jest tak, że w języku zawarty jest wspólny grunt pewien rodzaj wiedzy powszechnej, więc jesteśmy w stanie rozmawiać na jakiś temat. Jeśli ja, jako laik, usłyszałem właśnie fachową uwagę o wiązaniu muchy, to już podstawowe rozumienie języka, pojęć zawartych w wypowiedzi, pozwala mi zrozumieć cały koncept, nawet taki, który jest mi równie obcy jak wędkarstwo muchowe. Po prostu rozumiejąc poszczególne słowa, zależności między rzeczownikami, czasownikami i innymi częściami zdania jesteśmy w stanie dopowiedzieć sobie brakujące informacje, a przez to powiększyć naszą wiedzę. To właśnie w taki sposób uczą się ludzie, niejako wypełniają luki w wiedzy posługując się rozumieniem podstaw języka.
Tay tego zabrakło.
A zabrakło dlatego, że - jak zauważa Caroline Sinders - pewne zwroty nie zostały dodane na tzw. "czarną listę". Sinders sama zajmuje się botami i przetwarzaniem języka naturalnego i wnioskuje, że Tay mogła po prostu rozmawiać o wszystkim - o przemocy domowej, gwałcie, Hitlerze.
- W szkoleniu bota ważna jest częstotliwość i rodzaje pytań, jakie będziemy mu zadawać. Jeśli pytania te będą miały rasistowską naturę, to bot będzie uczył się być rasistą. Zwłaszcza, jeśli nie zostały ustawione żadne parametry aby temu zapobiec - pisze Sinders.
Tay fot. Marta Kondrusik
Brandon Wirtz, założyciel firmy Recognant zajmującej się sztuczną inteligencją stwierdził z kolei, że Microsoft nie wbudował w Tay mechanizmów samokontroli.
- Tay nie ma mechanizmów samorefleksji, nie może sama siebie zapytać, czy przekroczyła granicę dobrego smaku. Musi pytać o to innych. A kiedy zapytasz internautów, po prostu nie powiedzą prawdy. To właśnie kolejna reguła, której nie nauczyła się Tay: Nie ufaj niczemu co przeczytasz w internecie
Współtwórca Cortany tak opisywał trudności z uczeniem maszyn:
- Stworzenie przykładowego systemu w którym trzeba wypowiadać konkretne polecenia, żeby komputer je zrozumiał jest proste. Chodzi o to, żeby ludzie mogli wypowiadać dowolne kwestie w języku naturalnym. Jako badacz zajmujący się przetwarzaniem języka naturalnego odnoszę się przede wszystkim do tego, w jaki sposób osoba mówiąca wyraża swoje intencje. Jakich używa słów, jakich zwrotów, jak konstruuje całe zdanie. Na przykład jeśli powiem "Jedźmy teraz do parku w Sunnyvale, albo nie, do Mountain View”, to człowiek będzie wiedział, że w środku wypowiedzi zmieniłem intencję.
Naukowcy starają się uczyć maszyny języka i rozumowania już od wielu lat. Wypuszczenie Tay do internetu to kolejny etap - ten, w którym maszyna uczy się od człowieka. Kolejny - maszyny uczą się od siebie nawzajem.
- Gdy maszyny zaczną zdobywać wiedzę bez pośrednictwa ludzi, albo gdy maszyny zaczną uczyć inne maszyny, to sam proces nauki może się znacznie przyspieszyć.
Specjalista z Microsoftu zauważa, że gdy te dwa etapy zostaną pokonane (boty uczą się od ludzi, boty uczą się od siebie), to można będzie zacząć mówić o sztucznej inteligencji.
Może więc dobrze, że eksperyment z Tay się nie powiódł. To pokazuje, że przed nami jeszcze dużo do zrobienia. Odwleka to jednocześnie moment powstania prawdziwej sztucznej inteligencji. A tu pojawić mogą się dużo większe zagrożenia niż w przypadku Tay. Dlaczego? Bo sztuczna inteligencja może być ostatnim wynalazkiem, jaki kiedykolwiek powstanie z ręki człowieka.