Futurystyczna wizja stała się faktem. Maszyny uczą się ludzkich emocji

Wydają się bezduszne, a tak bezbłędnie uczą się naszych emocji. Maszyny potrafią je doskonale rozpoznawać, co ułatwia nam życie w wielu sytuacjach.

Jak to możliwe, że maszyna wyposażona jedynie w mikroprocesory i miliony linii kodu jest w stanie nauczyć się czegoś tak skomplikowanego jak ludzkie emocje? Sukcesy na tym polu nie byłyby możliwe, gdyby nie intensywny rozwój kilku ważnych instrumentów. Najważniejszym z nich jest sztuczna inteligencja.

Algorytmy uczą się naszych emocji na kilka sposobów. Najprostszy: patrzą. Wykorzystują kamery, albo zdjęcia. Samo rozpoznawania obiektów i twarzy do rozpoznania emocji nie wystarczy. Potrzebne jest stworzenie systemu "rozumiejącego" wyraz twarzy. I właśnie takie narzędzie wprowadziła kilka tygodni temu amerykańska sieć Walmart. Specjalne roboty ustawione w sklepach analizują reakcję konsumentów na zakupy. Emocje rozpoznawane na twarzy są dodatkowo korelowane z danymi biometrycznymi.

Walmart twierdzi, że jego system pozwala dbać o zadowolenie klientów. Ich reakcje badane są w czasie rzeczywistym. Twarz konsumentów ma zdradzać, czy są zadowoleni z obsługi. Sieć marketów wychodzi z założenia, że lepiej wiedzieć o niezadowoleniu klienta z jego reakcji w danej chwili, niż ze statystyk. Utraconego klienta trudno bowiem odzyskać, niezadowolonego można jeszcze przekonać, by nie odchodził do konkurencji.

Podobny sposób analizy emocji zaprezentował Microsoft - Project Oxford służy do bardziej złożonego rozpoznawania twarzy.

Emocje pozwala rozpoznawać internet rzeczy. Sensory, które przeciętny użytkownik wykorzystuje do uczynienia swojego domu bardziej inteligentnym mogą być bardziej wysublimowane. System niewielkich urządzeń zamontowanych w domu sprawi, że stanie się on inteligentny i "sterowalny" za pomocą smartfona. Włączanie świateł, otwieranie drzwi i okien, uruchamianie kuchenki, upewnienie się czy sąsiad właśnie nas nie zalewa są możliwe dzięki niedrogim czujnikom.

Analiza danych na podstawie zdjęcia twarzy i sylwetkiAnaliza danych na podstawie zdjęcia twarzy i sylwetki Fot. skybiometry.com

W przypadku sklepów cel wykorzystania czujników jest inny. Ostatni krzyk "technologicznej mody", który opisuje "Telegraph", to czujniki wbudowane w sklepowe manekiny. Badają nasze reakcje używając podczerwieni, starają się wyłapać przyspieszone bicie serca. Rozpoznają emocje przez badanie oczywistych, ale subtelnych fizycznych reakcji na coś, co nam się podoba. I to dokładnie w momencie, gdy do czegoś podchodzimy, gdy na coś patrzymy, gdy jesteśmy w pobliżu jakiegoś towaru. Ta sama technologia pozwala badać zachowanie klientów w całych centrach handlowych i sklepach - analizować ruch. Co przyciąga uwagę, które miejsca cieszą się popularnością, co sprawia, że niektórych miejsc klienci unikają. Konsumentom taka technologia przynosi korzyści, bo obsługa sklepu lepiej rozumie potrzeby i wie jak na nie reagować. Sklepy korzystające z takich systemów zwiększają sprzedaż o ok. 10 proc. Rozpoznawanie emocji przydaje się też przy... wykrywaniu prób kradzieży.

Maszyny uczą się naszych reakcji "na żywo". Reklamodawcy mają narzędzia takie jak Affectiva, Emotient, czy FaceReader, które analizują na bieżąco ruchy mięśni twarzy. Są dzięki temu w stanie ocenić naszą emocjonalną reakcję na widzianą reklamę, film, odtwarzaną muzykę co do sekundy. Najlepszym przykładem na wykorzystanie tej technologii jest Remiks teledysku Męskiego Grania Żywca. Widz za sprawą wyrażanych emocji, które rejestruje na żywo kamera ma realny wpływ na muzykę i obraz wyświetlanego na ekranie monitora klipu wideo.

Możliwości technologii zwiększają się. Pozwalają ocenić nie tylko podstawowe emocjonalne reakcje takie jak złość, smutek, radość, strach, zaskoczenie, wstręt. Coraz większa "rozdzielczość" algorytmów i sensorów pozwala przesunąć granicę poznania ku bardziej subtelnym odczuciom.

Badanie emocji pojawia się też w komunikatorach. Wszechobecne serduszka, buźki, naklejki pojawiają się w Messengerze czy WhatsAppie nie bez powodu. Podobnie jak rozbudowane do absurdu zestawy ikon. Są potrzebne gigantom technologii, by określać nasze emocje w danym stanie jak najbardziej precyzyjnie. Emotikon, który wydaje się na pierwszy rzut oka niezbyt mądrą naklejką jest tak naprawdę precyzyjnym miernikiem naszego stanu emocjonalnego. Google i inni giganci technologii wykorzystują również inne techniki badania naszego stanu - analizują sposób w jaki piszemy. Jednym z przykładów takiego narzędzia jest The Tone Analyzer będący jedną z aplikacji superkomputera IBM Watson. Jak wskazuje nazwa umie rozpoznać "odcienie emocji" i dopasować do nich cechy socjologiczne. Do analizy potrzebuje jedynie próbkę jakiekolwiek tekstu.

Nowy wymiar sztucznej inteligencji

Rozpoznawanie emocji pokrywa się z gigantycznym wzrostem ilości przetwarzanych danych. Jak przewiduje firma SAS specjalizująca się w indywidualnych rozwiązaniach z zakresu oprogramowania do 2025 roku wytworzymy ponad 163 zetabajtów danych, co oznacza 10-krotny wzrost w stosunku do 2016 roku - 16,1 zetabajtów.

Do komunikowania się z systemami informatycznymi korzystającymi z tak gigantycznego zasobu danych człowiekowi potrzebna jest specjalna warstwa. Interfejs umożliwiający komunikację głosową. Systemy kognitywne stanowią więc kolejny etap rozwoju sztucznej inteligencji. Potrafią komunikować się z ludźmi z wykorzystaniem języka naturalnego. Rozumieją komendy głosowe czy tekstowe, a także odpowiadają na pytania i dają rekomendacje działań. Specjaliści SAS przewidują, że w niedalekiej przyszłości przetwarzanie kognitywne wpłynie na sposób naszej codziennej pracy.

Dzięki niemu przyspieszymy poszczególne procesy, gdyż maszyny będą w stanie samodzielnie wyciągać wnioski ze zgromadzonych danych i oferować, niewidoczne na pierwszy rzut oka, dodatkowe możliwości. Zwiększy się również poziom bezpieczeństwa, gdyż kognitywni asystenci będą w stanie zlokalizować zagrożenie, zanim ono nastąpi. Urządzenia kognitywne pomogą uzyskać informacje, o które nawet nie mieliśmy zamiaru zapytać. Przedstawią opisowe streszczenie danych i wskażą możliwe sposoby działania.

Maszyny nie rozumieją emocji, tylko?

Co zatem jest sekretem rozpoznawania emocji przez maszyny, komputery, komunikatory, strony internetowe? Maszyny tak naprawdę nie potrafią bezpośrednio zrozumieć naszych emocji. Ale doskonale rozumieją dane. Do zrozumienia co wyraża nasza twarz, gest, sposób w jaki przeglądamy internet, piszemy, wykorzystują uczenie głębokie (ang. deep learning) i internet rzeczy. W ten sposób rozpoznają mowę, identyfikują obrazy i dźwięki i prognozują jak zareagować na nasze zachowanie w danej chwili.

Jak remiksować teledysk emocjami - aplikacja Męskie Granie

- - -

KONIECZNIE SPRAWDŹ: Zremiksuj emocjami teledysk Męskiego Grania!

Więcej o: