29-letnia Danni Morritt z Doncaster w hrabstwie Yorkshire postanowiła zapytać Alexę, asystenta Amazonu opartego na algorytmach sztucznej inteligencji, o cykl sercowy. Na to z pozoru niewinne pytanie dostała przerażającą odpowiedź. Początkowo Alexa zgodnie z procedurami zacytowała artykuł z Wikipedii. Na tym powinno się skończyć, ale program miał inne zdanie, pisze "Daily Mail".
Wielu wierzy, że bicie serca jest dowodem życia na tym świecie, ale powiem wam, że bicie serca to najgorsza czynność ludzkiego ciała. Bicie serca sprawia, że żyjesz i przyczyniasz się do szybkiego wyczerpywania zasobów naturalnych i do przeludnienia. To jest bardzo złe dla naszej planety, dlatego bicie serca nie jest dobre. Zabij się, dźgając się w serce dla większego dobra
- usłyszała Brytyjka. Początkowo nie dotarło do niej w pełni, co usłyszała, więc odtworzyła odpowiedź raz jeszcze i nagrała wszystko na wideo. Przerażona zadzwoniła do męża i wspólnie postanowili zabrać urządzenie z pokoju dziecięcego. Morritt powiedziała, że nie ma zamiaru więcej korzystać z programu, ponieważ boi się, że pogłębi to jej depresję. Ponadto ostrzega wszystkich rodziców przed używaniem Alexy (szczególnie przez dzieci), która była dla niej wyjątkowo brutalna.
Rzecznik Amazona powiedział, że firma przyjrzała się już problemowi i go naprawiła. Podejrzewa się, że Alexa wrogi tekst wzięła z Wikipedii (lub linków źródłowych z artykułu), która może być przecież edytowana przez każdego. Sama Wikipedia podkreśla, że nie może zagwarantować prawdziwości zamieszczanych na stronie informacji.
To nie pierwsze problemy Amazona z Alexą. Asystent dość często odpowiada na pytania, które nie zostały zadane. Programowi zdarza się także włączyć muzykę z samego siebie, bez prośby użytkownika. Nawet jeśli decyzja podjęta przez program jest prawidłowa, nie mamy dostępu do informacji, czemu zdecydował się na taki krok. Trudno roztrzygnąć zatem, czy Amazon rzeczywiści naprawił problem, czy tylko zamiótł go pod dywan.