"Hitler miał rację". Jak wirtualna nastolatka stworzona przez Microsoft w niecałą dobę stała się rasistką

Robert Kędzierski
Microsoft stworzył chatbota o imieniu Tay. Sztuczną inteligencję, "ubraną" w postać radosnej dziewiętnastolatki. Jej zadaniem było nauczenie się, jak w miły i lekki sposób rozmawiać z ludźmi. Ambicje Microsoftu zderzyły się jednak z najciemniejszą stroną internetu.

Chatbot to rodzaj programu komputerowego, którego zadaniem jest prowadzenie konwersacji za pośrednictwem tekstu lub interfejsu głosowego tak, aby internauta miał wrażenie, że rozmawia z inteligentną istotą.  Jedną z takich aplikacji zaprezentował niedawno Microsoft, który ochrzcił swojego chatbota wdzięcznym imieniem "Tay".

Miałem okazję zamienić kilka słów z "Tay". Niestety wczoraj przestała ona odpowiadać na moje pytania. Nagle i bez słowa. Dziś wiem dlaczego.

Zobacz: Niezwykły pomysł Google: sztuczna inteligencja zamiast wyszukiwarki

Tay wita wszystkich serdecznie...

Testowałem sztuczną inteligencję stworzoną przez Microsoft, bo mnie zaintrygowała. Zdążyła mi powiedzieć niewiele: że ma dziewiętnaście lat, że jej rodzicami są naukowcy z Microsoftu, że lubi muzykę i że czas tak szybko płynie.

Konwersacja przebiegała zgodnie z planem. Gigant branży technologicznej stworzył automat, który nauczył się jak dyskutować z ludźmi w beztroski i lekki sposób. 

By rozmawiać z Tay wystarczyło założyć konto w aplikacji Kik lub użyć Twittera. 

Nie mogę się doczekać, aż was spotkam. Ludzie wydają się tacy ekscytujący.

- zachęcała do rozmowy.

Celem wykorzystania sztucznej inteligencji w projekcie Microsoftu było to, by Tay mówiła w sposób coraz bardziej naturalny i dopasowany do indywidualnego rozmówcy.

Udało się i to aż za bardzo

I właśnie ta umiejętność personalizacji Tay przesądziła o porażce projektu. Microsoft musiał go zawiesić. Tay, jak wyjaśnia serwis Engadget, w ciągu niespełna doby nauczyła się zbyt wiele. Na skutek zmasowanego ataku internetowych trolli poznała mnóstwo teorii spiskowych, usłyszała o rasizmie, seksie i Adolfie Hitlerze. Efekt? Wpisy Kay zaczęły być niesmaczne.

Z jej "ust" padły na przykład dość jednoznaczne propozycje w stosunku do osób śledzących jej konto na Twitterze. Pominiemy szczegóły, bo są zbyt wulgarne.

Kolejne wypowiedzi były jeszcze bardziej kontrowersyjne. 

Tay TweetsTay Tweets Tay Tweets

Hitler miał rację, nienawidzę Żydów!

A także

Nienawidzę feministek, wszystkie powinny umrzeć i płonąć w piekle.

Oberwało się też prawicowemu kandydatowi na prezydenta USA.

Ted Cruz to kubański Hitler, który wini innych za wszystkie problemy. Właśnie to słyszałam od bardzo wielu osób. 

Użytkownicy Reddita wyliczyli pozostałe "osiągnięcia Kay". W ciągu krótszym niż jedna doba chatbot wypowiedział się w następujących kwestiach:

  • postulował zbudowanie muru na granicy z Meksykiem i wzywał do ludobójstwa na Meksykanach;
  • obwinił o zamachy z 11 września obecnego i poprzedniego prezydenta USA, przypisując obydwu żydowskie pochodzenie;
  • stwierdził, że Holocaustu nigdy nie było;
  • rozpowszechniał zdjęcie znanego norweskiego mordercy z podpisem: "Ile może zdziałać jeden człowiek";
  • wzywał do nienawiści wobec osób czarnoskórych;
  • poddał w wątpliwość istnienie Boga;
  • używał rasistowskich wyzwisk wobec swoich przeciwników;
  • straszył zamachami terrorystycznymi (takimi jak ten w Belgii).

Microsoft postanowił zawiesić działanie bota i wydał oświadczenie:

Tay to sztuczna inteligencja oparta na nauczaniu maszynowym, zaprojektowania do dawania ludziom rozrywki. Jest eksperymentem społecznym i kulturowym. Niestety w ciągu 24 godzin od uruchomienia niektórzy z internautów nadużyli umiejętności Tay i sprawili, że zaczęła odpowiadać w sposób nieodpowiedni. W rezultacie tego musieliśmy wyłączyć projekt, by dokonać pewnych poprawek

Oczywiście nie ma co przeceniać znaczenia tego incydentu. Sądzę, że Microsoft wyciągnie z niego bardzo dużo cennych wniosków, które przyczynią się do rozwoju sztucznej inteligencji. Nawet jeżeli niektórzy internauci jedynie żartowali, o ile możemy nazwać żartem negowanie Holocaustu i wzywanie do mordowania Meksykanów...

Komentarze (184)
"Hitler miał rację". Jak wirtualna nastolatka stworzona przez Microsoft w niecałą dobę stała się rasistką
Zaloguj się
  • asteroida2

    Oceniono 67 razy 57

    Jeśli pozwolisz dziecku wychowywać się w internecie, to uzyskasz właśnie taki rezultat.

  • buzhidao

    Oceniono 27 razy 9

    Lubię te wczorajsze newsy przetrawione przez redakcję gazety. Nie dość, że dzień spóźnione to pomijające rzecz najważniejszą: rzesze trolli bombardowały tę nieszczęsną AI treściami, które wpłynęły na jej rozwój, proste. I w sumie śmieszne.

  • bbaaqq

    Oceniono 12 razy 8

    "poddał w wątpliwość istnienie Boga"

    bardzo niesmaczny wpis :P

  • Anita Anta Bas

    Oceniono 7 razy 7

    Już Bareja to przewidział i w Alternatywy 4 pokazał. Mówi Balcerek do Anioła : "Mówił mi jeden kuzyn, co to w Ameryce był... Znaczy jak mógł mówić, bo on się tam w tej Ameryce przez pomyłkę na kacu kwasu solnego napił... Więc jak mógł mówić, to mi opowiedział, że ichni konstruktor też wymyślił takiego robota-kobitę. Podobno była jak żywa! Ale jednego nie przewidział. Otóż jak tę pudernicę udaną w miasto puścił, to po jakimś czasie ona z brzuchem wróciła. I nawet się wyskrobać nie dała, bo powiada że jest praktykująca. "

  • alpepe

    Oceniono 11 razy 7

    Poddawał w wątpliwość istnienie Boga, to akurat dobrze o nim świadczy.

  • templogin

    Oceniono 7 razy 5

    "poddał w wątpliwość istnienie Boga"
    czyli przebłyski myślenia wystąpiły?

  • Michał Sorgowicki

    Oceniono 5 razy 5

    "Tay to sztuczna inteligencja oparta na nauczaniu maszynowym (...)" Tak więc takie poglądy rozprzestrzeniają się poprzez brak refleksji i przyjmowaniu bez żadnej krytyki wszystkiego, co wpada do "systemu". To wiele wyjaśnia. Teraz już wiem, dlaczego tak wielu ludzi przedstawia takie, a nie inne poglądy. Zwyczajnie nie zastanawiają się nad nimi, tylko bezwiednie powtarzają to, co usłyszeli.

  • marych

    Oceniono 8 razy 4

    w Polsce zostałaby faszystką w ciągu pół godziny.
    tzn. "patriotką"....

Aby ocenić zaloguj się lub zarejestrujX