Tay to nie porażka, to już sukces Microsoftu
Na pierwszy rzut oka to rzeczywiście wpadka. Tay, bot od Microsoftu, który miał na Twitterze i aplikacji Kik udawać dziewiętnastolatkę, bardzo szybko stał się rasistą. Chatbot zaczął chwalić Hitlera, stwierdził, że nienawidzi Żydów i feministek, poddał w wątpliwość istnienie Boga czy też postulował zbudowanie muru na granicy z Meksykiem i wzywał do ludobójstwa na Meksykanach. Microsoft widząc zachowanie swojego programu postanowił go "uśpić”, wydając przy tym oświadczenie:
Tay to sztuczna inteligencja oparta na nauczaniu maszynowym, zaprojektowana do dawania ludziom rozrywki. Jest eksperymentem społecznym i kulturowym. Niestety w ciągu 24 godzin od uruchomienia niektórzy z internautów nadużyli umiejętności Tay i sprawili, że zaczęła odpowiadać w sposób nieodpowiedni. W rezultacie tego musieliśmy wyłączyć projekt, by dokonać pewnych poprawek
Microsoft dostosował się do reakcji komentujących. Większość stwierdziła, że Tay to wpadka, błąd twórców i PR-owa porażka, która ośmiesza Microsoft. Zupełnie nie rozumiem dlaczego się tak uważa i sugeruje wprowadzenie poprawek. Skąd mamy pewność, że coś nie zadziałało?
Twitter fot. Twitter
Cel Microsoftu był prosty - Tay miała mówić w sposób coraz bardziej naturalny i dopasowany do indywidualnego rozmówcy. Uczyła się tego na podstawie rozmów z prawdziwymi ludźmi, którzy do niej pisali. Tay stała się rasistką, bo właśnie to zasugerowała jej armia trolli, atakująca ją wpisami o Hitlerze czy feministkach.
Microsoft nie może powiedzieć "udało nam się!”, bo taki komunikat byłby źle odebrany w mediach i wśród ludzi, dla których Tay jest nieporozumieniem. Nie zdziwiłbym się, gdyby Microsoft naprawdę uważał, że Tay swoje zadanie spełniła w stu procentach.
Cenna wiedza
Przecież w takich testach właśnie o to chodzi - sprawdzić się w najtrudniejszych warunkach, na niewygodnym terenie. Microsoft zachęcił internetowych "żartownisiów” do eksperymentu, wystawiając im biedną Tay i mówiąc: to nasz bot, który będzie uczył się rozmawiając z wami. Czy naprawdę można było spodziewać się innej reakcji ludzi? Tay chłonęła niepoprawne politycznie wpisy jak gąbka i po niecałej dobie pisała jak niejeden prawdziwy człowiek, co ze smutkiem wielu zauważyło. Czy to nie sukces?
Sztuczna inteligencja od Microsoftu może być mądrzejsza niż nam się wydaje. My wiemy, że Tay to bot. Ale co jeśli firmy już wysyłają podobne chatboty i nikt nie ma nawet pojęcia, że to program, a nie żywy człowiek? Może podobne do Tay konta już są wśród kibiców Barcelony i narzekają na Real Madryt, chwalą Messiego i nie cierpią Cristiano Ronaldo? Dyskutują o polityce, naśladując najpopularniejsze, najchętniej cytowane wpisy? W rozmowach o muzyce chwalą artystów, którzy są na topie i zbierają dobre recenzje; polecają seriale, które rekomendowane są przez waszych znajomych? Nawet jeżeli jeszcze takich nie ma, to dzięki Tay ich powstanie jest coraz bliższe. Tay pokazała, jak odnaleźć się w tłumie i wyciągnąć najczęściej pojawiające się opinie i poglądy.
Tay fot. Marta Kondrusik
Microsoft już wie więcej. Może w ich eksperymencie właśnie o to chodziło - Tay miała być podatna na sugestie innych, by w ten sposób dopasować się do większości? W końcu niepoprawny chatbot, wymykający się spod kontroli (rzecz jasna teoretycznie, bo możemy być pewni, że Microsoft nad wszystkim czuwał), pyskaty i nieprzewidywalny dostarczy dużo więcej wniosków oraz materiału do analizy niż nudny bot, którego nikt nie zauważy i który będzie miałki. Dlatego też Microsoft posłał Tay na głęboką wodę, w miejsce, gdzie każdy troll będzie w stanie z Tay pogadać i sprowadzić ją na złą drogę.
Microsoft bogatszy o doświadczenie
A nawet jeżeli nie takie były założenia, to przecież Microsoft i tak zyskał. Teraz jest w stanie lepiej obronić się przed atakami hejterów. Może nauczyć swojego bota, na co nie powinien reagować albo jak odpowiadać na takie zaczepki. Microsoft ma świadomość co może czekać na bota w wirtualnym świecie. To już nie domysły, a bardzo cenne doświadczenie.
Zastanawiające jest podejście do eksperymentów. Logiczne, że czasami może się coś nie udać lub nie pójść zgodnie z planem. Ale właśnie dlatego się testuje i sprawdza, by na przyszłość być mądrzejszym. Tymczasem komentarze po twitterowej działalności Tay sugerują, że Microsoft powinien darować sobie prace nad sztuczną inteligencją, bo Tay "zaskoczyła” i nie była taka, jakiej się spodziewaliśmy. Pytanie, czy na pewno odpowiednie osoby były reakcją chatbota zszokowane - mam wrażenie, że w Microsofcie większość jest jednak zadowolona.
-
Rząd dogadał się z górnikami. "Za węglowe oszustwo zapłacą najwyższy rachunek"
-
Elon Musk nie może znaleźć pracowników do niemieckiej gigafabryki. Polacy wciąż mogą zarobić do 16 tys. zł
-
Rząd szuka pieniędzy na zdrowie, szykuje się narodowa zrzutka. Składki zdrowotne w górę
-
Elon Musk znów pisze historię. Statek SpaceX zabrał czworo astronautów w kosmos
-
Szczyt klimatyczny organizowany przez USA. Co powie Duda? M.in. temat węgla. "Zostaliśmy wybrani"
- Duda stworzył nowe pojęcie? Eksperci od klimatu zachodzą w głowę, czym jest "równowaga emisyjna"
- Emerytura nawet dla tych, którzy nie odprowadzali składek. Nowy projekt ustawy. "Patologia rynku pracy"
- Majówka w Chorwacji. Ambasada apeluje do Polaków o zachowanie szczególnej ostrożności
- Luzowanie obostrzeń epidemicznych? Przed majówką "możemy o tym zapomnieć"
- Dodatkowy dzień wolny dla Polaków? Jest apel do rządu. Chodzi o szczepienia na COVID-19