Tay to nie porażka, to już sukces Microsoftu

Adam Bednarek
Niepoprawny politycznie bot zaszkodził Microsoftowi? Wręcz przeciwnie - to bardzo cenna lekcja i dużo ciekawych wniosków. Taka wiedza jest niesamowicie przydatna.

Na pierwszy rzut oka to rzeczywiście wpadka. Tay, bot od Microsoftu, który miał na Twitterze i aplikacji Kik udawać dziewiętnastolatkę, bardzo szybko stał się rasistą. Chatbot zaczął chwalić Hitlera, stwierdził, że nienawidzi Żydów i feministek, poddał w wątpliwość istnienie Boga czy też postulował zbudowanie muru na granicy z Meksykiem i wzywał do ludobójstwa na Meksykanach. Microsoft widząc zachowanie swojego programu postanowił go "uśpić”, wydając przy tym oświadczenie:

Tay to sztuczna inteligencja oparta na nauczaniu maszynowym, zaprojektowana do dawania ludziom rozrywki. Jest eksperymentem społecznym i kulturowym. Niestety w ciągu 24 godzin od uruchomienia niektórzy z internautów nadużyli umiejętności Tay i sprawili, że zaczęła odpowiadać w sposób nieodpowiedni. W rezultacie tego musieliśmy wyłączyć projekt, by dokonać pewnych poprawek

Microsoft dostosował się do reakcji komentujących. Większość stwierdziła, że Tay to wpadka, błąd twórców i PR-owa porażka, która ośmiesza Microsoft. Zupełnie nie rozumiem dlaczego się tak uważa i sugeruje wprowadzenie poprawek. Skąd mamy pewność, że coś nie zadziałało? 

TwitterTwitter fot. Twitter

Cel Microsoftu był prosty - Tay miała mówić w sposób coraz bardziej naturalny i dopasowany do indywidualnego rozmówcy. Uczyła się tego na podstawie rozmów z prawdziwymi ludźmi, którzy do niej pisali. Tay stała się rasistką, bo właśnie to zasugerowała jej armia trolli, atakująca ją wpisami o Hitlerze czy feministkach.

Microsoft nie może powiedzieć "udało nam się!”, bo taki komunikat byłby źle odebrany w mediach i wśród ludzi, dla których Tay jest nieporozumieniem. Nie zdziwiłbym się, gdyby Microsoft naprawdę uważał, że Tay swoje zadanie spełniła w stu procentach.

Cenna wiedza

Przecież w takich testach właśnie o to chodzi - sprawdzić się w najtrudniejszych warunkach, na niewygodnym terenie. Microsoft zachęcił internetowych "żartownisiów” do eksperymentu, wystawiając im biedną Tay i mówiąc: to nasz bot, który będzie uczył się rozmawiając z wami. Czy naprawdę można było spodziewać się innej reakcji ludzi? Tay chłonęła niepoprawne politycznie wpisy jak gąbka i po niecałej dobie pisała jak niejeden prawdziwy człowiek, co ze smutkiem wielu zauważyło. Czy to nie sukces?

Sztuczna inteligencja od Microsoftu może być mądrzejsza niż nam się wydaje. My wiemy, że Tay to bot. Ale co jeśli firmy już wysyłają podobne chatboty i nikt nie ma nawet pojęcia, że to program, a nie żywy człowiek? Może podobne do Tay konta już są wśród kibiców Barcelony i narzekają na Real Madryt, chwalą Messiego i nie cierpią Cristiano Ronaldo? Dyskutują o polityce, naśladując najpopularniejsze, najchętniej cytowane wpisy? W rozmowach o muzyce chwalą artystów, którzy są na topie i zbierają dobre recenzje; polecają seriale, które rekomendowane są przez waszych znajomych? Nawet jeżeli jeszcze takich nie ma, to dzięki Tay ich powstanie jest coraz bliższe. Tay pokazała, jak odnaleźć się w tłumie i wyciągnąć najczęściej pojawiające się opinie i poglądy. 

TayTay fot. Marta Kondrusik

Microsoft już wie więcej. Może w ich eksperymencie właśnie o to chodziło - Tay miała być podatna na sugestie innych, by w ten sposób dopasować się do większości? W końcu niepoprawny chatbot, wymykający się spod kontroli (rzecz jasna teoretycznie, bo możemy być pewni, że Microsoft nad wszystkim czuwał), pyskaty i nieprzewidywalny dostarczy dużo więcej wniosków oraz materiału do analizy niż nudny bot, którego nikt nie zauważy i który będzie miałki. Dlatego też Microsoft posłał Tay na głęboką wodę, w miejsce, gdzie każdy troll będzie w stanie z Tay pogadać i sprowadzić ją na złą drogę.

Microsoft bogatszy o doświadczenie

A nawet jeżeli nie takie były założenia, to przecież Microsoft i tak zyskał. Teraz jest w stanie lepiej obronić się przed atakami hejterów. Może nauczyć swojego bota, na co nie powinien reagować albo jak odpowiadać na takie zaczepki. Microsoft ma świadomość co może czekać na bota w wirtualnym świecie. To już nie domysły, a bardzo cenne doświadczenie.

Zastanawiające jest podejście do eksperymentów. Logiczne, że czasami może się coś nie udać lub nie pójść zgodnie z planem. Ale właśnie dlatego się testuje i sprawdza, by na przyszłość być mądrzejszym. Tymczasem komentarze po twitterowej działalności Tay sugerują, że Microsoft powinien darować sobie prace nad sztuczną inteligencją, bo Tay "zaskoczyła” i nie była taka, jakiej się spodziewaliśmy. Pytanie, czy na pewno odpowiednie osoby były reakcją chatbota zszokowane - mam wrażenie, że w Microsofcie większość jest jednak zadowolona.