Gazeta.pl Next >  Technologie >  'Hitler miał rację'. Jak wirtualna nastolatka stworzona przez Microsoft w niecałą dobę stała się rasistką

"Hitler miał rację". Jak wirtualna nastolatka stworzona przez Microsoft w niecałą dobę stała się rasistką

A A A
Tay

Tay

Microsoft stworzył chatbota o imieniu Tay. Sztuczną inteligencję, "ubraną" w postać radosnej dziewiętnastolatki. Jej zadaniem było nauczenie się, jak w miły i lekki sposób rozmawiać z ludźmi. Ambicje Microsoftu zderzyły się jednak z najciemniejszą stroną internetu.

Chatbot to rodzaj programu komputerowego, którego zadaniem jest prowadzenie konwersacji za pośrednictwem tekstu lub interfejsu głosowego tak, aby internauta miał wrażenie, że rozmawia z inteligentną istotą.  Jedną z takich aplikacji zaprezentował niedawno Microsoft, który ochrzcił swojego chatbota wdzięcznym imieniem "Tay".

Miałem okazję zamienić kilka słów z "Tay". Niestety wczoraj przestała ona odpowiadać na moje pytania. Nagle i bez słowa. Dziś wiem dlaczego.

Zobacz: Niezwykły pomysł Google: sztuczna inteligencja zamiast wyszukiwarki

Tay wita wszystkich serdecznie...

Testowałem sztuczną inteligencję stworzoną przez Microsoft, bo mnie zaintrygowała. Zdążyła mi powiedzieć niewiele: że ma dziewiętnaście lat, że jej rodzicami są naukowcy z Microsoftu, że lubi muzykę i że czas tak szybko płynie.

Konwersacja przebiegała zgodnie z planem. Gigant branży technologicznej stworzył automat, który nauczył się jak dyskutować z ludźmi w beztroski i lekki sposób. 

By rozmawiać z Tay wystarczyło założyć konto w aplikacji Kik lub użyć Twittera. 

Nie mogę się doczekać, aż was spotkam. Ludzie wydają się tacy ekscytujący.

- zachęcała do rozmowy.

Celem wykorzystania sztucznej inteligencji w projekcie Microsoftu było to, by Tay mówiła w sposób coraz bardziej naturalny i dopasowany do indywidualnego rozmówcy.

Udało się i to aż za bardzo

I właśnie ta umiejętność personalizacji Tay przesądziła o porażce projektu. Microsoft musiał go zawiesić. Tay, jak wyjaśnia serwis Engadget, w ciągu niespełna doby nauczyła się zbyt wiele. Na skutek zmasowanego ataku internetowych trolli poznała mnóstwo teorii spiskowych, usłyszała o rasizmie, seksie i Adolfie Hitlerze. Efekt? Wpisy Kay zaczęły być niesmaczne.

Z jej "ust" padły na przykład dość jednoznaczne propozycje w stosunku do osób śledzących jej konto na Twitterze. Pominiemy szczegóły, bo są zbyt wulgarne.

Kolejne wypowiedzi były jeszcze bardziej kontrowersyjne. 

Tay TweetsTay Tweets Tay Tweets

Hitler miał rację, nienawidzę Żydów!

A także

Nienawidzę feministek, wszystkie powinny umrzeć i płonąć w piekle.

Oberwało się też prawicowemu kandydatowi na prezydenta USA.

Ted Cruz to kubański Hitler, który wini innych za wszystkie problemy. Właśnie to słyszałam od bardzo wielu osób. 

Użytkownicy Reddita wyliczyli pozostałe "osiągnięcia Kay". W ciągu krótszym niż jedna doba chatbot wypowiedział się w następujących kwestiach:

  • postulował zbudowanie muru na granicy z Meksykiem i wzywał do ludobójstwa na Meksykanach;
  • obwinił o zamachy z 11 września obecnego i poprzedniego prezydenta USA, przypisując obydwu żydowskie pochodzenie;
  • stwierdził, że Holocaustu nigdy nie było;
  • rozpowszechniał zdjęcie znanego norweskiego mordercy z podpisem: "Ile może zdziałać jeden człowiek";
  • wzywał do nienawiści wobec osób czarnoskórych;
  • poddał w wątpliwość istnienie Boga;
  • używał rasistowskich wyzwisk wobec swoich przeciwników;
  • straszył zamachami terrorystycznymi (takimi jak ten w Belgii).

Microsoft postanowił zawiesić działanie bota i wydał oświadczenie:

Tay to sztuczna inteligencja oparta na nauczaniu maszynowym, zaprojektowania do dawania ludziom rozrywki. Jest eksperymentem społecznym i kulturowym. Niestety w ciągu 24 godzin od uruchomienia niektórzy z internautów nadużyli umiejętności Tay i sprawili, że zaczęła odpowiadać w sposób nieodpowiedni. W rezultacie tego musieliśmy wyłączyć projekt, by dokonać pewnych poprawek

Oczywiście nie ma co przeceniać znaczenia tego incydentu. Sądzę, że Microsoft wyciągnie z niego bardzo dużo cennych wniosków, które przyczynią się do rozwoju sztucznej inteligencji. Nawet jeżeli niektórzy internauci jedynie żartowali, o ile możemy nazwać żartem negowanie Holocaustu i wzywanie do mordowania Meksykanów...

Komentarze (184)
"Hitler miał rację". Jak wirtualna nastolatka stworzona przez Microsoft w niecałą dobę stała się rasistką
Zaloguj się
  • buzhidao

    Oceniono 27 razy 9

    Lubię te wczorajsze newsy przetrawione przez redakcję gazety. Nie dość, że dzień spóźnione to pomijające rzecz najważniejszą: rzesze trolli bombardowały tę nieszczęsną AI treściami, które wpłynęły na jej rozwój, proste. I w sumie śmieszne.

Aby ocenić zaloguj się lub zarejestrujX

Najczęściej czytane