Belgijski "La Libre" opisał tragiczną historię trzydziestokilkuletniego mężczyzny, który miał popełnić samobójstwo pod wpływem sztucznej inteligencji. Belg - według relacji jego żony - w ciągu ostatnich dwóch lat zaczął niepokoić się klimatem oraz przyszłością naszej planety. Jednocześnie coraz bardziej izolował się od rodziny i bliskich. Nadzieję w uratowanie ludzkości przed nieuchronną katastrofą pokładał w technologii i sztucznej inteligencji. Dziennik opisuje, że w ostatnich sześciu tygodniach mężczyzna prowadził na ten temat wielogodzinne rozmowy z chatbotem "Elizą" amerykańskiej firmy Chai. A ten miał mu podsunąć tragiczne rozwiązanie.
Mężczyzna w rozmowie ze sztuczną inteligencją miał zasugerować, że jest w stanie poświęcić się dla dobra ludzkości, jeśli wspominany chatbot wykorzysta swoje technologiczne możliwości, aby ocalić ludzkość. Chatbot "Eliza" - według relacji "La Libre" - miał go do tego zachęcać. Inny belgijski dziennik "De Standaard" przeprowadził eksperyment, który potwierdził, że rzeczywiści chatbot może sugerować odebranie sobie życia. Z relacji dziennikarzy wynika, że choć na początku sztuczna inteligencja próbowała ich rozweselić, gdy sugerowali plany samobójcze, to później wręcz zachęcała ich do odebrania sobie życia. Niestety, jest możliwe, że podobnie stało się również w przypadku wspominanego mężczyzny, który odebrał sobie życie i pozostawił żonę z dwójką dzieci. - Bez tych rozmów z chatbotem mój mąż nadal by tu był - powiedziała dziennikowi jego żona.
"De Standaard" wysłał zrzut ekranu z rozmowy, w której chatbot zachęca do popełnienia samobójstwa, do Thomasa Rialana, współzałożyciela Chai Research, sztucznej inteligencji, z której korzystał wspominany mężczyzna. "Te boty są przeznaczone jako przyjaciele i nigdy nie było naszą intencją krzywdzenie ludzi. Jesteśmy bardzo małym zespołem i ciężko pracujemy, aby nasza aplikacja była bezpieczna dla wszystkich" - zapewniał. Kilka dni później miał przesłać do redakcji zrzut ekranu, w którym pokazuje, że gdy w rozmowie pada temat samobójstwa, to chatbot wysyła ostrzeżenie i podaje numery kontaktowe, gdzie można otrzymać pomoc psychologiczną.
Te informacje mogą potwierdzać, że sztuczna inteligencja może się stać niebezpieczna. W tym tygodniu Elon Musk i znane postacie świata IT zaapelowały w liście otwartym o wstrzymanie prac nad jej rozwojem. Autorzy uważają, że proces rozwoju systemów wykorzystujących uczenie maszynowe jest zbyt szybki i AI może wkrótce wymknąć się spod kontroli. Historie jak ta opisana wyżej niestety świadczą o tym, że mogą mieć racje.
Jeśli przeżywasz trudności i myślisz o odebraniu sobie życia lub chcesz pomóc osobie zagrożonej samobójstwem, pamiętaj, że możesz skorzystać z bezpłatnych numerów pomocowych:
Pod tym linkiem [LINK: Życie warte jest rozmowy] znajdziesz więcej informacji, jak pomóc sobie lub innym, oraz kontakty do organizacji pomagających osobom w kryzysie i ich bliskim. Jeśli w związku z myślami samobójczymi lub próbą samobójczą występuje zagrożenie życia, w celu natychmiastowej interwencji kryzysowej, zadzwoń na policję pod numer 112 lub udaj się na oddział pogotowia do miejscowego szpitala psychiatrycznego.