Technologia deepfake wykorzystuje sztuczną inteligencję do manipulowania obrazami oraz dźwiękiem, tworząc tym samym wrażenie autentycznego materiału. Termin "deepfake" jest połączeniem słów "deep learning" (głębokie nauczanie maszynowe, którego algorytmy są wykorzystywane przez tę technologię) oraz "fake" (fałszywy). Za pomocą deepfake można stworzyć wideo, na którym twarz jednej osoby, nakładana jest na ciało lub ruchy innej. Tym samym generowana postać wykonuje ruchy i wypowiada słowa, których realnie nigdy nie mówiła i nie robiła.
Pod koniec kwietnia przedstawiciel prawny firmy technologicznej w Fuzhou, w chińskiej prowincji Fujian, nawiązał rozmowę wideo - jak mu się wydawało - ze swoim znajomym. Jego przyjaciel poprosił go o pomoc finansową, jednocześnie obiecując, że zwróci pożyczone pieniądze. Mężczyzna bez chwili zawahania przelał na konto znajomego 4,3 miliona juanów (równowartość około 2,5 miliona złotych). O tym, że padł ofiarą oszustwa, dowiedział się dopiero w trakcie rozmowy telefonicznej z prawdziwym przyjacielem, który zaprzeczył, żeby prosił go wcześniej o jakiekolwiek pieniądze.
Ofiara oszustwa natychmiast powiadomił o wszystkim policję Fuzhou, która do sprawy zaangażowała także policję z Baotou - miasta, w którym zarejestrowane zostało konto bankowe fałszywego znajomego. Funkcjonariuszom udało się zablokować przelew na 3,37 mln juanów. Pozostałą część, która została przekazana oszustowi policja, nadal stara się odzyskać.
- Rozmawiał ze mną przez komunikator wideo. Potwierdziłem wtedy jego twarz i głos na filmie. Dlatego straciłem czujność - poinformował oszukany mężczyzna w rozmowie cytowanej przez serwis chinadaily.com.cn. Policja z Baotou zaapelowała do ludzi o ostrożność w udostępnianiu danych osobowych, takich jak zdjęcia twarzy i odciski palców. Funkcjonariusze wskazali także, aby zbyt łatwo nie ujawniać danych identyfikacyjnych i bankowych. Poinstruowali opinię publiczną, aby przed przekazaniem jakichkolwiek środków pieniężnych sprawdzić tożsamość drugiej osoby z pomocą różnych kanałów komunikacji, a w przypadku wątpliwości jak najszybciej zgłosić podejrzenie próby oszustwa.
Oszustwo w północnych Chinach sprawiło, że na nowo rozgorzała dyskusja na temat wykorzystywania potencjału technik sztucznej inteligencji do popełniania przestępstw. Jak poinformował serwis asiafinancial.com, na chińskim serwisie mikroblogowym Weibo hashtag "#Oszustwa AI eksplodują w całym kraju" zyskał ponad 120 milionów wyświetleń. W związku z rosnącą skalą zagrożeń wynikających z niewłaściwego korzystania z możliwości sztucznej inteligencji, w styczniu Chiny wprowadziły przepisy zaostrzające kontrolę technologii i aplikacji, które mają możliwość manipulowania głosem i wizerunkiem. Jeden z zapisów mówi o zakazie wykorzystywania treści wygenerowanych przez sztuczną inteligencję do rozpowszechniania fałszywych wiadomości. Ponadto użytkownicy muszą wyrazić zgodę, jeżeli ich wizerunek ma zostać wykorzystany w jakiejkolwiek technologii z zastosowaniem AI. Z kolei ci, którzy dostarczają taką technologię, mają obowiązek wyraźnie oznaczać zdjęcia, filmy, czy tekst, które zostały wygenerowane przez urządzenie, lub przez nie zmodyfikowane, a mogłoby zostać przez kogoś zinterpretowane jako prawdziwe.
Sztuczna inteligencja (AI) i jej dynamiczny rozwój wcale nie muszą być przekleństwem, ani tym bardziej wiązać się z "zagładą ludzkości". Wręcz przeciwnie. AI daje nowe technologiczne możliwości, by poprawić nasz byt. 14 i 15 czerwca odbędzie się międzynarodowy hackathon Hack To The Rescue, którego patronem jest Next.Gazeta.pl. Więcej informacji znajdziecie w poniższym artykule.