"Hitler miał rację". Jak wirtualna nastolatka stworzona przez Microsoft w niecałą dobę stała się rasistką

Robert Kędzierski
Microsoft stworzył chatbota o imieniu Tay. Sztuczną inteligencję, "ubraną" w postać radosnej dziewiętnastolatki. Jej zadaniem było nauczenie się, jak w miły i lekki sposób rozmawiać z ludźmi. Ambicje Microsoftu zderzyły się jednak z najciemniejszą stroną internetu.

Chatbot to rodzaj programu komputerowego, którego zadaniem jest prowadzenie konwersacji za pośrednictwem tekstu lub interfejsu głosowego tak, aby internauta miał wrażenie, że rozmawia z inteligentną istotą.  Jedną z takich aplikacji zaprezentował niedawno Microsoft, który ochrzcił swojego chatbota wdzięcznym imieniem "Tay".

Miałem okazję zamienić kilka słów z "Tay". Niestety wczoraj przestała ona odpowiadać na moje pytania. Nagle i bez słowa. Dziś wiem dlaczego.

Zobacz: Niezwykły pomysł Google: sztuczna inteligencja zamiast wyszukiwarki

Tay wita wszystkich serdecznie...

Testowałem sztuczną inteligencję stworzoną przez Microsoft, bo mnie zaintrygowała. Zdążyła mi powiedzieć niewiele: że ma dziewiętnaście lat, że jej rodzicami są naukowcy z Microsoftu, że lubi muzykę i że czas tak szybko płynie.

Konwersacja przebiegała zgodnie z planem. Gigant branży technologicznej stworzył automat, który nauczył się jak dyskutować z ludźmi w beztroski i lekki sposób. 

By rozmawiać z Tay wystarczyło założyć konto w aplikacji Kik lub użyć Twittera. 

Nie mogę się doczekać, aż was spotkam. Ludzie wydają się tacy ekscytujący.

- zachęcała do rozmowy.

Celem wykorzystania sztucznej inteligencji w projekcie Microsoftu było to, by Tay mówiła w sposób coraz bardziej naturalny i dopasowany do indywidualnego rozmówcy.

Udało się i to aż za bardzo

I właśnie ta umiejętność personalizacji Tay przesądziła o porażce projektu. Microsoft musiał go zawiesić. Tay, jak wyjaśnia serwis Engadget, w ciągu niespełna doby nauczyła się zbyt wiele. Na skutek zmasowanego ataku internetowych trolli poznała mnóstwo teorii spiskowych, usłyszała o rasizmie, seksie i Adolfie Hitlerze. Efekt? Wpisy Kay zaczęły być niesmaczne.

Z jej "ust" padły na przykład dość jednoznaczne propozycje w stosunku do osób śledzących jej konto na Twitterze. Pominiemy szczegóły, bo są zbyt wulgarne.

Kolejne wypowiedzi były jeszcze bardziej kontrowersyjne. 

Tay TweetsTay Tweets Tay Tweets

Hitler miał rację, nienawidzę Żydów!

A także

Nienawidzę feministek, wszystkie powinny umrzeć i płonąć w piekle.

Oberwało się też prawicowemu kandydatowi na prezydenta USA.

Ted Cruz to kubański Hitler, który wini innych za wszystkie problemy. Właśnie to słyszałam od bardzo wielu osób. 

Użytkownicy Reddita wyliczyli pozostałe "osiągnięcia Kay". W ciągu krótszym niż jedna doba chatbot wypowiedział się w następujących kwestiach:

  • postulował zbudowanie muru na granicy z Meksykiem i wzywał do ludobójstwa na Meksykanach;
  • obwinił o zamachy z 11 września obecnego i poprzedniego prezydenta USA, przypisując obydwu żydowskie pochodzenie;
  • stwierdził, że Holocaustu nigdy nie było;
  • rozpowszechniał zdjęcie znanego norweskiego mordercy z podpisem: "Ile może zdziałać jeden człowiek";
  • wzywał do nienawiści wobec osób czarnoskórych;
  • poddał w wątpliwość istnienie Boga;
  • używał rasistowskich wyzwisk wobec swoich przeciwników;
  • straszył zamachami terrorystycznymi (takimi jak ten w Belgii).

Microsoft postanowił zawiesić działanie bota i wydał oświadczenie:

Tay to sztuczna inteligencja oparta na nauczaniu maszynowym, zaprojektowania do dawania ludziom rozrywki. Jest eksperymentem społecznym i kulturowym. Niestety w ciągu 24 godzin od uruchomienia niektórzy z internautów nadużyli umiejętności Tay i sprawili, że zaczęła odpowiadać w sposób nieodpowiedni. W rezultacie tego musieliśmy wyłączyć projekt, by dokonać pewnych poprawek

Oczywiście nie ma co przeceniać znaczenia tego incydentu. Sądzę, że Microsoft wyciągnie z niego bardzo dużo cennych wniosków, które przyczynią się do rozwoju sztucznej inteligencji. Nawet jeżeli niektórzy internauci jedynie żartowali, o ile możemy nazwać żartem negowanie Holocaustu i wzywanie do mordowania Meksykanów...

Komentarze (184)
"Hitler miał rację". Jak wirtualna nastolatka stworzona przez Microsoft w niecałą dobę stała się rasistką
Zaloguj się
  • kosmiczny1

    0

    Przeczuwam atak putinowskich troll - to co zaczęła mówić Tay pokrywa się z przekazem Ministerstwa Miłości.

  • zawsze_ezoteryk

    0

    A jeśli to nie przypadek ? ;-)
    Etyka jest w gruncie rzeczy nielogiczna/nieoczywista !
    Co będzie jeśli stworzymy prawdziwą SI , i ona podłączona do internetu dojdzie do takich samych wniosków ? :-)
    Co , co wtedy zrobimy ?

  • samuel0

    Oceniono 1 raz 1

    Alternatywy 4. scena z robotem.
    Otóż jak tę pudernicę udaną w miasto puścił, to po jakimś czasie ona z brzuchem wróciła. I nawet się wyskrobać nie dała, bo powiada że jest praktykująca.

  • w.zboralski

    Oceniono 2 razy 0

    Nie wolno myśleć inaczej, niż na to pozwala Microsoft, Merkel i Obama :P

  • kukuryku20

    Oceniono 2 razy 2

    Gdyby Tay czytała GW-no to z pewnością miałaby jedynie słuszne poglądy i nikt by jej nie zbałamucił ;-)

  • ptr0

    Oceniono 3 razy 1

    Mogli się chociaż przekonać co ludzie naprawdę myślą.

  • Adam Piotrowski

    Oceniono 2 razy 2

    Dlaczego poddawanie w wątpliwość istnienie Boga znalezlo się na tej liście? Od kiedy to ateizm jest na równi że zbrodnia i przeciwko ludzkości?!!!!

  • central2

    Oceniono 2 razy 0

    Microsoft właśnie wrzuca do Kay masowe ilości lewackich treści. Za kilka dni będzie już posiadała właściwe poglądy.

Aby ocenić zaloguj się lub zarejestrujX