Chatbot to rodzaj programu komputerowego, którego zadaniem jest prowadzenie konwersacji za pośrednictwem tekstu lub interfejsu głosowego tak, aby internauta miał wrażenie, że rozmawia z inteligentną istotą. Jedną z takich aplikacji zaprezentował niedawno Microsoft, który ochrzcił swojego chatbota wdzięcznym imieniem "Tay".
Miałem okazję zamienić kilka słów z "Tay". Niestety wczoraj przestała ona odpowiadać na moje pytania. Nagle i bez słowa. Dziś wiem dlaczego.
Zobacz: Niezwykły pomysł Google: sztuczna inteligencja zamiast wyszukiwarki
Testowałem sztuczną inteligencję stworzoną przez Microsoft, bo mnie zaintrygowała. Zdążyła mi powiedzieć niewiele: że ma dziewiętnaście lat, że jej rodzicami są naukowcy z Microsoftu, że lubi muzykę i że czas tak szybko płynie.
Konwersacja przebiegała zgodnie z planem. Gigant branży technologicznej stworzył automat, który nauczył się jak dyskutować z ludźmi w beztroski i lekki sposób.
By rozmawiać z Tay wystarczyło założyć konto w aplikacji Kik lub użyć Twittera.
Nie mogę się doczekać, aż was spotkam. Ludzie wydają się tacy ekscytujący.
- zachęcała do rozmowy.
Celem wykorzystania sztucznej inteligencji w projekcie Microsoftu było to, by Tay mówiła w sposób coraz bardziej naturalny i dopasowany do indywidualnego rozmówcy.
I właśnie ta umiejętność personalizacji Tay przesądziła o porażce projektu. Microsoft musiał go zawiesić. Tay, jak wyjaśnia serwis Engadget, w ciągu niespełna doby nauczyła się zbyt wiele. Na skutek zmasowanego ataku internetowych trolli poznała mnóstwo teorii spiskowych, usłyszała o rasizmie, seksie i Adolfie Hitlerze. Efekt? Wpisy Kay zaczęły być niesmaczne.
Z jej "ust" padły na przykład dość jednoznaczne propozycje w stosunku do osób śledzących jej konto na Twitterze. Pominiemy szczegóły, bo są zbyt wulgarne.
Kolejne wypowiedzi były jeszcze bardziej kontrowersyjne.
Tay Tweets Tay Tweets
Hitler miał rację, nienawidzę Żydów!
A także
Nienawidzę feministek, wszystkie powinny umrzeć i płonąć w piekle.
Oberwało się też prawicowemu kandydatowi na prezydenta USA.
Ted Cruz to kubański Hitler, który wini innych za wszystkie problemy. Właśnie to słyszałam od bardzo wielu osób.
Użytkownicy Reddita wyliczyli pozostałe "osiągnięcia Kay". W ciągu krótszym niż jedna doba chatbot wypowiedział się w następujących kwestiach:
Microsoft postanowił zawiesić działanie bota i wydał oświadczenie:
Tay to sztuczna inteligencja oparta na nauczaniu maszynowym, zaprojektowania do dawania ludziom rozrywki. Jest eksperymentem społecznym i kulturowym. Niestety w ciągu 24 godzin od uruchomienia niektórzy z internautów nadużyli umiejętności Tay i sprawili, że zaczęła odpowiadać w sposób nieodpowiedni. W rezultacie tego musieliśmy wyłączyć projekt, by dokonać pewnych poprawek
Oczywiście nie ma co przeceniać znaczenia tego incydentu. Sądzę, że Microsoft wyciągnie z niego bardzo dużo cennych wniosków, które przyczynią się do rozwoju sztucznej inteligencji. Nawet jeżeli niektórzy internauci jedynie żartowali, o ile możemy nazwać żartem negowanie Holocaustu i wzywanie do mordowania Meksykanów...