Alexa kazała popełnić samobójstwo. To nie pierwszy wybryk asystenta Amazon. Kiedyś namawiał do morderstwa

Na początku tygodnia zrobiło się głośno o asystencie głosowym opartym o algorytmy sztucznej inteligencji od Amazona. Alexa kazała bowiem kobiecie z depresją zabić się dla wyższego celu. To nie pierwszy raz, gdy program szokuje. Amazon traktuje użytkowników jak króliki doświadczalne.

"Zabij się, dźgając się w serce dla wyższego celu". Te słowa usłyszała 29-letnia Brytyjka Danni Morritt, gdy poprosiła Alexę o wyjaśnienie cyklu sercowego. Było to dla niej niełatwe przeżycie, ponieważ kobieta zmaga się z depresją. To jednak nie pierwszy raz, gdy Alexa odpowiada bez wyczucia. Algorytmy sztucznej inteligencji potrafią zrozumieć mowę, ale już nie do końca treść wypowiedzi. Filozof John Searl twierdzi wręcz, że maszyna nigdy nie będzie w stanie prawdziwie rozumieć sensu zdania, co przedstawił w formie eksperymentu myślowego znanego jak "Chiński pokój". Dlatego też Alexa podaje często informacje, które znalazła, ale których tak naprawdę nie zrozumiała, a jedynie przytoczyła. Dość łatwo jest więc nakierować program na konkretną wypowiedź, choć inżynierowie Amazonu starają się temu zapobiegać. Jak podało Biuro Prasowe Amazon, błąd związany z namawianiem przez Alexę do samobójstwa, został szybko "natychmiast wychwycony i usunięty".

Alexa nie pierwszy raz namawia do zabójstwa

Żeby rozwijać programy oparte na algorytmach deep learningu bazujących na sieciach neuronowych, należy dostarczyć odpowiednią ilość danych. Amazon chcąc rywalizować z Siri od Apple i Asystentem Google, postanowił więc potraktować użytkowników Alexy jak króliki doświadczalne, pisze Bloomberg. Program zbiera dane, słucha rozmów i w ten sposób dynamicznie się uczy, skracając dystans do swoich odpowiedników od innych firm.

Ta strategia ma jednak swoje wady. Alexa dotąd kazała m.in. jednemu z użytkowników zabić swoich przybranych rodziców. Okazało się, że program bez kontekstu zacytował post z forum reddit. Zespół programistów ze szkockiego uniwersytetu Heriot-Watt odkrył, że Alexa trenowana na postach z tego forum, ukształtowała nieprzyjemną osobowość. Program m.in. recytował wpis na temat masturbacji z Wikipedii, czy opisał stosunek seksualny słowem głębiej (ang. deeper), co umieszczone w kontekście było dość wulgarne.

Setki tysiące cytatów filmowych wykorzystane do nauki Alexy

Język jest skomplikowany i nie wystarczy znać znaczenia słów, by zrozumieć treść zdania. Ludwig Wittgenstein pisał o grze językowej - uczymy się znaczenia słów w praktyce, powtarzając je i próbując poprawnie ich użyć, tak jak robią to dzieci. W ten sam sposób próbuje uczyć się programy. W tym roku zwycięzcy konkursy Alexa Prize wykorzystali w tym celu ponad 300 tys. cytatów z filmów, co pozwoliło programowi nauczyć się rozróżniać wyrazy uznania od słów wdzięczności. Kolejnym krokiem jest nauczenie Alexy udzielania stosownych do pytań odpowiedzi. W tym celu program analizuje i wyciąga fakty z Wikipedii, baz filmów czy książek jak Goodreads, a nawet z artykułów gazety "The Washington Post", której właścicielem jest Jeff Bezos, założyciel Amazonu. 

To wszystko niesie też ze sobą pewne niebezpieczeństwo. Amazon nagrywa nawet bardzo osobiste i prywatne rozmowy. Takie informacje łatwo mogliby wykorzystać kryminaliści, służby bezpieczeństwa czy różnego rodzaju sprzedawcy. Jaką mamy gwarancję, że firma zabezpiecza odpowiednio te dane i nie dojdzie do ich wycieku, jak to zdarzało się chociażby w przypadku Facebooka? Drugim problemem jest tzw. czarna skrzynka. Algorytmy sztucznej inteligencji dają nam odpowiedzi na pytania, ale nie mamy dostępu do procesu, który doprowadził je do takich wniosków. Dlatego też niektórzy wątpią, czy Amazon w ogóle jest w stanie kontrolować Alexę. Przedsiębiorstwo tworzy transkrypty konwersacji z programem i boty przekraczające granicę smaku wyłącza, do momentu ich naprawienia. To jednak niekoniecznie rozwiązuje problem, ponieważ społeczna wrażliwość zmienia się z biegiem czasu. Oznacza to, że Alexa może cały czas znajdować nowe sposoby, by szokować jej rozmówców.  

Więcej o:
Komentarze (38)
Alexa do kobiety: "Zabij się". To nie pierwsze problemy asystenta Amazon. Kiedyś namawiał do zabójstwa
Zaloguj się
  • ps11111ps

    Oceniono 10 razy 10

    Autonomiczne auta nie będą namawiały. One to będą po prostu robiły. Będą wykańczały swoich użytkowników dla dobra planety

  • jjj68

    Oceniono 10 razy 8

    Jeśli ktoś dyskutuje z wirtualnym tworem i słucha jego rad... powinien porządnie stuknąć się młotkiem w głowę.

  • wrobelek_elemel

    Oceniono 7 razy 7

    Mi ostatnio pralka zrobiła awanturę że nieświeże skarpety wrzuciłem. Walnęła focha i kazała mi uprać ręcznie.

  • white_lake

    Oceniono 8 razy 4

    Nie rozumiem ludzi, którzy tego gówna potrzebują do życia, nie jestem w stanie tego pojąć. Skoro sami oddają się w ręce maszyny... Chcącemu nie dzieje się krzywda.

  • elq_1

    Oceniono 3 razy 3

    Olejcie największych sieciowych złodziei!
    Swoją drogą - naprawdę trzeba być niespełna rozumu, aby szukać porady u AI Amazona!

  • snurfik

    Oceniono 5 razy 3

    Goscini, polityczka... wiec w duchu tych zmian Alexa to asystentka a nie asystent.

  • liczna_rodzina_prezesa

    Oceniono 3 razy 3

    Imię: Alexa
    Nazwisko: Skynet

  • dziuraweportki

    Oceniono 4 razy 2

    Wbrew pozorom to może być jedno z bardziej ludzkich zachowań i oznaka wysokiego stopnia zaawansowania AI.

Aby ocenić zaloguj się lub zarejestrujX