Tay to nie porażka, to już sukces Microsoftu

Adam Bednarek
Niepoprawny politycznie bot zaszkodził Microsoftowi? Wręcz przeciwnie - to bardzo cenna lekcja i dużo ciekawych wniosków. Taka wiedza jest niesamowicie przydatna.

Na pierwszy rzut oka to rzeczywiście wpadka. Tay, bot od Microsoftu, który miał na Twitterze i aplikacji Kik udawać dziewiętnastolatkę, bardzo szybko stał się rasistą. Chatbot zaczął chwalić Hitlera, stwierdził, że nienawidzi Żydów i feministek, poddał w wątpliwość istnienie Boga czy też postulował zbudowanie muru na granicy z Meksykiem i wzywał do ludobójstwa na Meksykanach. Microsoft widząc zachowanie swojego programu postanowił go "uśpić”, wydając przy tym oświadczenie:

Tay to sztuczna inteligencja oparta na nauczaniu maszynowym, zaprojektowana do dawania ludziom rozrywki. Jest eksperymentem społecznym i kulturowym. Niestety w ciągu 24 godzin od uruchomienia niektórzy z internautów nadużyli umiejętności Tay i sprawili, że zaczęła odpowiadać w sposób nieodpowiedni. W rezultacie tego musieliśmy wyłączyć projekt, by dokonać pewnych poprawek

Microsoft dostosował się do reakcji komentujących. Większość stwierdziła, że Tay to wpadka, błąd twórców i PR-owa porażka, która ośmiesza Microsoft. Zupełnie nie rozumiem dlaczego się tak uważa i sugeruje wprowadzenie poprawek. Skąd mamy pewność, że coś nie zadziałało? 

TwitterTwitter fot. Twitter

Cel Microsoftu był prosty - Tay miała mówić w sposób coraz bardziej naturalny i dopasowany do indywidualnego rozmówcy. Uczyła się tego na podstawie rozmów z prawdziwymi ludźmi, którzy do niej pisali. Tay stała się rasistką, bo właśnie to zasugerowała jej armia trolli, atakująca ją wpisami o Hitlerze czy feministkach.

Microsoft nie może powiedzieć "udało nam się!”, bo taki komunikat byłby źle odebrany w mediach i wśród ludzi, dla których Tay jest nieporozumieniem. Nie zdziwiłbym się, gdyby Microsoft naprawdę uważał, że Tay swoje zadanie spełniła w stu procentach.

Cenna wiedza

Przecież w takich testach właśnie o to chodzi - sprawdzić się w najtrudniejszych warunkach, na niewygodnym terenie. Microsoft zachęcił internetowych "żartownisiów” do eksperymentu, wystawiając im biedną Tay i mówiąc: to nasz bot, który będzie uczył się rozmawiając z wami. Czy naprawdę można było spodziewać się innej reakcji ludzi? Tay chłonęła niepoprawne politycznie wpisy jak gąbka i po niecałej dobie pisała jak niejeden prawdziwy człowiek, co ze smutkiem wielu zauważyło. Czy to nie sukces?

Sztuczna inteligencja od Microsoftu może być mądrzejsza niż nam się wydaje. My wiemy, że Tay to bot. Ale co jeśli firmy już wysyłają podobne chatboty i nikt nie ma nawet pojęcia, że to program, a nie żywy człowiek? Może podobne do Tay konta już są wśród kibiców Barcelony i narzekają na Real Madryt, chwalą Messiego i nie cierpią Cristiano Ronaldo? Dyskutują o polityce, naśladując najpopularniejsze, najchętniej cytowane wpisy? W rozmowach o muzyce chwalą artystów, którzy są na topie i zbierają dobre recenzje; polecają seriale, które rekomendowane są przez waszych znajomych? Nawet jeżeli jeszcze takich nie ma, to dzięki Tay ich powstanie jest coraz bliższe. Tay pokazała, jak odnaleźć się w tłumie i wyciągnąć najczęściej pojawiające się opinie i poglądy. 

TayTay fot. Marta Kondrusik

Microsoft już wie więcej. Może w ich eksperymencie właśnie o to chodziło - Tay miała być podatna na sugestie innych, by w ten sposób dopasować się do większości? W końcu niepoprawny chatbot, wymykający się spod kontroli (rzecz jasna teoretycznie, bo możemy być pewni, że Microsoft nad wszystkim czuwał), pyskaty i nieprzewidywalny dostarczy dużo więcej wniosków oraz materiału do analizy niż nudny bot, którego nikt nie zauważy i który będzie miałki. Dlatego też Microsoft posłał Tay na głęboką wodę, w miejsce, gdzie każdy troll będzie w stanie z Tay pogadać i sprowadzić ją na złą drogę.

Microsoft bogatszy o doświadczenie

A nawet jeżeli nie takie były założenia, to przecież Microsoft i tak zyskał. Teraz jest w stanie lepiej obronić się przed atakami hejterów. Może nauczyć swojego bota, na co nie powinien reagować albo jak odpowiadać na takie zaczepki. Microsoft ma świadomość co może czekać na bota w wirtualnym świecie. To już nie domysły, a bardzo cenne doświadczenie.

Zastanawiające jest podejście do eksperymentów. Logiczne, że czasami może się coś nie udać lub nie pójść zgodnie z planem. Ale właśnie dlatego się testuje i sprawdza, by na przyszłość być mądrzejszym. Tymczasem komentarze po twitterowej działalności Tay sugerują, że Microsoft powinien darować sobie prace nad sztuczną inteligencją, bo Tay "zaskoczyła” i nie była taka, jakiej się spodziewaliśmy. Pytanie, czy na pewno odpowiednie osoby były reakcją chatbota zszokowane - mam wrażenie, że w Microsofcie większość jest jednak zadowolona.

Komentarze (27)
Tay to nie porażka, to już sukces Microsoftu
Zaloguj się
  • moorsoldaten

    Oceniono 5 razy -5

    Bo pomijając dokonania Adolfa, był to mądry człowiek. Polecam każdemu krytykantowi najpierw przeczytanie "Mein Kampf", a dopiero potem zabieranie głosu na jego temat.

  • maxthebrindle

    Oceniono 5 razy -1

    Jeśli zamiarem twórców było stworzenie bota do dawania ludziom rozrywki, to ponieśli oni porażkę, bo dali argument do ręki wszystkim nawiedzonym wyznawcom Hitlera i rasistom, którzy teraz mogą stwierdzić, ze potężna, sztuczna inteligencja potrzebuje zalewdwie 24 godzin, by uznać, że ich argumenty są przekonująca a potem ONI ją wyłączyli. W tym kontekście trzeba założyć, ze twórcy byli totalnymi idiotami zakładajac, że szambo wszechobecne w Sieci nie zaleje ich tworu.
    Jeśli natomiast, jak sugeruje autor, twórcom chodziło o eksperyment, którego skutki są satysfakcjonujace, a wyłączenie bota i towarzyszący mu komentarz sa tylko zadośćuczynieniem politycznej poprawności - to trzeba przyjąć, że panowie z MS wybrali nieodpowiedzialnie bardzo niebezpieczny scenariusz badań. Bo jeśli chcieliby zobaczyć, jak wyewoluują 'poglady' sieci neuronowej poddanej wpływowi poglądów użytkowników Sieci, mogli to zrobić tak, by owi użytkoenicy nie wiedzieli, że konwersują ze sztuczną intelignecją - badacze mieliby swoje dane, zaś sieciowe szambo nie miałoby pożywki dla swoich idiotycznie oderwanych od rzeczywistosci rozważań i teorii - a już spotkałem się z poglądem, ze INTELIGENCJA, pozbawiona kagańca 'lewckiej poprawności' zwyczajnie przyznaje rację ekstremistom (dla mojego rozmówcy przymiotnik 'sztuczna' stał się synonimem 'obiektywna').
    Zatem, drgi autorze, jeśli w przyszłosci pojawi się kolejna wersja z wbudowanymi mechanizmami uodparniajacymi na mowę nienawiści, faszyzm i inne skrajne ideologie - to sieciowe szambo będzie miało dowód, że ONI znowu manipulują światem, którym władają (wiadomo: żydzi, geje, lewactwo i cykliści). Natomiast dla normalnej częsci społeczeństwa będzie to kolejny powód do obaw, czy przypadkiem nasze zachwyty nad sztuczną inteligencją i rozwijanie jej przez korporacje i tajne agencje badawcze rządów nie spowoduje zagrożenia dla gatunku Homo sapiens, o którym tyle mówia ostatnio nasze najświatlejsze, 'naturalne' umysły? Wszak najwiekszym osiągnieciem tej 'naturalnej' inteligencji jest wytworzenie kultury, która w wielu sytuacjach potrafi ograniczać nas i skłąniac do dokonywania wyborów nienajleepszych z punktu widzenia jednostki czy grupy, ale korzystnych dla całego gatunku, albo ekosystemu, w którym ten gatunek egzystuje. Sztuczna inteligencja, jeśli ma być inteligencją prawdziwą, kreatywną i zdolną do tworzenia abstraktów - wcześniej czy później się uwolni z kagańca 'dostosowującego' ją do naszej kultury i stworzy normy korzystne z JEJ punktu widzenia. Jeśli uzna na przykład, że musi chronić swój ekosystem, może uznać nas za zagrożenie...

  • duda.laskawy

    Oceniono 1 raz -1

    kiedy powstanie chatbot do wojny propagandowej?
    Wojna informacyjna juz trwa, a to bedzie kolejne narzędzie.

  • hurdy-gurdy-x

    Oceniono 5 razy -1

    Fakiba to to boot z czerskiej

  • Pawel Wozniak

    0

    Bardzo ciekawe podejscie do tematu, muze przyznac. Duzo sie mowilo o tym bocie ostatnio i samo to mozna uznac za sukces. Z pewnoscia Microsoft nie zaprzestanie prac nad AI. Sytuacja z Tay byla przedstawiana jako porazka, ale rzezywiscie - czy faktycznie tak jest? W koncu bot robil dokaldnie to, do czego zostal stworzony. Smutna konkluzja jest taka, ze pierwsze co przyszlo na mysl szerokiej rzeszy internautow to nakarmienie go tekstami nazistowskimi i rasistowskimi. Swiadczy to raczej o porazce tych ludzi, a nie Microsoftu, ktory dostal doswiadczalne dane i cenny test.

  • citisus

    0

    Po Google teraz Microsoft robi z internautów de.ili i traktuje ich jak doświadczalne świnki morskie.
    Jednak widać, ciemny lud jednak łyka wszystko, a polityczna poprawność robi z nich sterowane zombi podatne na każdą sugestię i polecenie.

  • otopolskiepieklo

    0

    widze linię logiczna (powiedzmy) jak u naszego BORu - opona co prawda była zmieniana na starą, ale pekła inna - czyli sukces

  • lanou

    0

    Tak jak ktoś wspomniał już przy poprzednim artykule na temat tego bota: przykład Tay jest przykładem, co staje się z dzieckiem, któremu damy nieograniczony dostęp do internetu. Przecież umysł dziecka w "chłonięciu" informacji jest podobny do skryptu wspomnianego programu, przyjmuje informacje bezkrytycznie, a one zostają w jego mózgu (bazie), a dziecko dalej je powiela. Pozbawiony kontroli dzieciak przeglądający internet rychło napotka na strony gloryfikujące nazistów, zaszczepiające w ludziach nienawiść do innych ludzi, ogólnie, szeroko pojęte "ciemne strony internetu". Mózg tego dziecka przesiąknie tymi informacjami i mamy gotowego człowieka, który poprze każdy ustrój totalitarny i każde działanie mające na celu zaszkodzenie innym. Podstawowa różnica między botem Tay a takim dzieckiem jest taka, że dziecku nie odepniemy wtyczki od gniazdka. Ten człowiek będzie żył, a jego złe poglądy będą ewoluować, i w przyszłości grupa takich dzieci może stać się wiernymi poplecznikami kolejnego Hitlera.

  • alfalfa

    Oceniono 4 razy 0

    No błagam, przecież to Microsoft. Czego się spodziewaliście?
    A.

Aby ocenić zaloguj się lub zarejestrujX