Robot bada ludzkie zachowania

Dopiero współpraca z androidem pozwoliła badaczom odkryć tajemnice ludzkiej percepcji

Naukowcy próbują zrozumieć, w jaki sposób nasz mózg wyławia interesujące nas sygnały w szumie np. ludnego przyjęcia, albo ważnego zebrania, na którym wszyscy chcą mówić równocześnie. Wiadomo, że rozmawiając z innymi gośćmi, kręcimy czasem głową, nasłuchując np. własnego nazwiska, albo innych interesujących rzeczy wypowiadanych w innej części sali.

Toniemy wówczas w powodzi dźwięków, pełnej zmiennych strumieni napływających z każdej strony. A jednak mózg daje sobie radę i jesteśmy w stanie wyłowić wiele informacji ważnych akurat dla nas.

Ale czy dopiero ruch głową pozwala złowić interesujące słowa, umożliwiając mózgowi przestrojenie się na odbiór cudzej rozmowy?

Zespół badaczy pod kierunkiem dr. Hirohito M. Kondo z japońskiego koncernu NTT zatrudnił robota do badania percepcji dźwięków u ludzi. Do serii eksperymentów zaproszono 10 osób. Każda z nich miała w czasie badań słuchawki na uszach, które połączone były do uszu androida stojącego obok. Wyniki badań opublikował prestiżowy magazyn PNAS.

Robot naśladował ruchy głowy człowieka, badacze mogli więc dokładnie śledzić, jak maszyna (i człowiek) słyszą odtwarzane im dźwięki.

Okazało się, że ruchy głową służące do nasłuchiwania częściowo resetują procesy percepcyjne. Mózg zbiera wówczas informacje o położeniu głowy, dane dźwiękowe z uszu i na nowo zbiera i ocenia strumienie dźwięków napływające do obojga uszu. Tym samym subtelne różnice obierania tych samych dźwięków przez dwoje uszu pozwalają mózgowi ocenić, na której rozmowie z wielu toczących się warto skupić uwagę.

Więcej o: