Tay to nie porażka, to już sukces Microsoftu

Adam Bednarek
Niepoprawny politycznie bot zaszkodził Microsoftowi? Wręcz przeciwnie - to bardzo cenna lekcja i dużo ciekawych wniosków. Taka wiedza jest niesamowicie przydatna.

Na pierwszy rzut oka to rzeczywiście wpadka. Tay, bot od Microsoftu, który miał na Twitterze i aplikacji Kik udawać dziewiętnastolatkę, bardzo szybko stał się rasistą. Chatbot zaczął chwalić Hitlera, stwierdził, że nienawidzi Żydów i feministek, poddał w wątpliwość istnienie Boga czy też postulował zbudowanie muru na granicy z Meksykiem i wzywał do ludobójstwa na Meksykanach. Microsoft widząc zachowanie swojego programu postanowił go "uśpić”, wydając przy tym oświadczenie:

Tay to sztuczna inteligencja oparta na nauczaniu maszynowym, zaprojektowana do dawania ludziom rozrywki. Jest eksperymentem społecznym i kulturowym. Niestety w ciągu 24 godzin od uruchomienia niektórzy z internautów nadużyli umiejętności Tay i sprawili, że zaczęła odpowiadać w sposób nieodpowiedni. W rezultacie tego musieliśmy wyłączyć projekt, by dokonać pewnych poprawek

Microsoft dostosował się do reakcji komentujących. Większość stwierdziła, że Tay to wpadka, błąd twórców i PR-owa porażka, która ośmiesza Microsoft. Zupełnie nie rozumiem dlaczego się tak uważa i sugeruje wprowadzenie poprawek. Skąd mamy pewność, że coś nie zadziałało? 

TwitterTwitter fot. Twitter

Cel Microsoftu był prosty - Tay miała mówić w sposób coraz bardziej naturalny i dopasowany do indywidualnego rozmówcy. Uczyła się tego na podstawie rozmów z prawdziwymi ludźmi, którzy do niej pisali. Tay stała się rasistką, bo właśnie to zasugerowała jej armia trolli, atakująca ją wpisami o Hitlerze czy feministkach.

Microsoft nie może powiedzieć "udało nam się!”, bo taki komunikat byłby źle odebrany w mediach i wśród ludzi, dla których Tay jest nieporozumieniem. Nie zdziwiłbym się, gdyby Microsoft naprawdę uważał, że Tay swoje zadanie spełniła w stu procentach.

Cenna wiedza

Przecież w takich testach właśnie o to chodzi - sprawdzić się w najtrudniejszych warunkach, na niewygodnym terenie. Microsoft zachęcił internetowych "żartownisiów” do eksperymentu, wystawiając im biedną Tay i mówiąc: to nasz bot, który będzie uczył się rozmawiając z wami. Czy naprawdę można było spodziewać się innej reakcji ludzi? Tay chłonęła niepoprawne politycznie wpisy jak gąbka i po niecałej dobie pisała jak niejeden prawdziwy człowiek, co ze smutkiem wielu zauważyło. Czy to nie sukces?

Sztuczna inteligencja od Microsoftu może być mądrzejsza niż nam się wydaje. My wiemy, że Tay to bot. Ale co jeśli firmy już wysyłają podobne chatboty i nikt nie ma nawet pojęcia, że to program, a nie żywy człowiek? Może podobne do Tay konta już są wśród kibiców Barcelony i narzekają na Real Madryt, chwalą Messiego i nie cierpią Cristiano Ronaldo? Dyskutują o polityce, naśladując najpopularniejsze, najchętniej cytowane wpisy? W rozmowach o muzyce chwalą artystów, którzy są na topie i zbierają dobre recenzje; polecają seriale, które rekomendowane są przez waszych znajomych? Nawet jeżeli jeszcze takich nie ma, to dzięki Tay ich powstanie jest coraz bliższe. Tay pokazała, jak odnaleźć się w tłumie i wyciągnąć najczęściej pojawiające się opinie i poglądy. 

TayTay fot. Marta Kondrusik

Microsoft już wie więcej. Może w ich eksperymencie właśnie o to chodziło - Tay miała być podatna na sugestie innych, by w ten sposób dopasować się do większości? W końcu niepoprawny chatbot, wymykający się spod kontroli (rzecz jasna teoretycznie, bo możemy być pewni, że Microsoft nad wszystkim czuwał), pyskaty i nieprzewidywalny dostarczy dużo więcej wniosków oraz materiału do analizy niż nudny bot, którego nikt nie zauważy i który będzie miałki. Dlatego też Microsoft posłał Tay na głęboką wodę, w miejsce, gdzie każdy troll będzie w stanie z Tay pogadać i sprowadzić ją na złą drogę.

Microsoft bogatszy o doświadczenie

A nawet jeżeli nie takie były założenia, to przecież Microsoft i tak zyskał. Teraz jest w stanie lepiej obronić się przed atakami hejterów. Może nauczyć swojego bota, na co nie powinien reagować albo jak odpowiadać na takie zaczepki. Microsoft ma świadomość co może czekać na bota w wirtualnym świecie. To już nie domysły, a bardzo cenne doświadczenie.

Zastanawiające jest podejście do eksperymentów. Logiczne, że czasami może się coś nie udać lub nie pójść zgodnie z planem. Ale właśnie dlatego się testuje i sprawdza, by na przyszłość być mądrzejszym. Tymczasem komentarze po twitterowej działalności Tay sugerują, że Microsoft powinien darować sobie prace nad sztuczną inteligencją, bo Tay "zaskoczyła” i nie była taka, jakiej się spodziewaliśmy. Pytanie, czy na pewno odpowiednie osoby były reakcją chatbota zszokowane - mam wrażenie, że w Microsofcie większość jest jednak zadowolona.

Komentarze (27)
Tay to nie porażka, to już sukces Microsoftu
Zaloguj się
  • dziki_truten

    Oceniono 21 razy 17

    Mam wrażenie, że w Polsce to co drugi osobnik - taki bot - po ulicy chodzi.

  • louisciffer

    Oceniono 7 razy 5

    poddał w wątpliwość istnienie Boga - a który to uczony czy dzieciojeb w koloracie toto udowodnił?

  • ojojtam

    Oceniono 4 razy 4

    Czytajac wypowiedzi Tay mialem wrazenie, ze mialaby spora szanse przejsc nie jeden test Turinga.
    Ale najbardziej niesamowite jest to, jak potrafila wykorzystac zdania zaszlyszane od "Trolli" dostosowac gramatyke i wplesc je w inne konwersacje, tak zeby zachowaly sens. Mam nawet niesmiale przypuszczenie ze jej tworcy spodziewali sie takiego kontrowersyjnego rezultatu juz na samym poczatku ;)

  • ketjow1978

    Oceniono 5 razy 3

    Tak sobie myślę czy Microsoft specjalnie nie skojarzył Hitlera, holocaustu i Trumpa w jednym przekazie. Może jednak jestem zarażony wirusem PiSu i wszędzie widzę spiski...

  • 4v

    Oceniono 1 raz 1

    "W rozmowach o muzyce chwalą artystów, którzy są na topie i zbierają dobre recenzje".

    Nie do końca bota, ale pewien mechanizm posiada tu YouTube. Mianowicie jak sobie puszczam piosenki i leci kolejna i kolejna (różnych wykonawców) to z chwilą gdy trafię na pieprzony One Direction, to już tylko ich "piosenki" później lecą. Wszyscy inni artyści oraz "artyści", grają na zmianę. Ci tutaj zostają już ze mną "na zawsze".

    Taki jest współczesny świat, tylko mało kto to widzi i mało kto rozumie...

  • milosierdzie_gminu

    Oceniono 1 raz 1

    Bot jest taki jak jego źródła. Jakby zrobić w Polsce bota na podstawie Niezależnej, TVP, czy wSieci, to też szybko wzywałby do gazowania Żydów, zabijania lewaków i pacyfikacji islamistów a zaraz potem planowałby atak na Moskwę

  • wooki74

    Oceniono 1 raz 1

    Proponuję, żeby dwa boty zaczęły rozmawiać ze sobą..to dopiero będzie zabawa:)

  • walkirrr

    Oceniono 3 razy 1

    w pisie święciłaby sukcesy oczywiście zaraz za prezesem

  • joly.roger

    Oceniono 9 razy 1

    Poddawała w wątpliwość istnienie Boga? I to wg. was był bug? ;)

Aby ocenić zaloguj się lub zarejestrujX