Świat sterowany mózgiem

Komunikacja mózgu bezpośrednio z urządzeniami jest możliwa. Choć do telepatycznego sterowania komputerem jeszcze daleko, już można wydawać mu polecenia dzięki sile koncentracji.

Przed komputerem siedzi człowiek. Na głowie ma czepek z elektrodami, które podłączone są do wzmacniacza wielkości modemu. Wzmacniacz połączony jest z komputerem. Na ekranie komputera widać matrycę cyfr i liter - kolumny i rzędy podświetlane są migającymi pasmami świetlnymi. Nad matrycą znajduje się puste pole tekstowe. Człowiek przed komputerem jest nieporuszony, tylko wpatruje się w ekran. Po kilku sekundach w polu pojawia się litera, po kilku minutach można przeczytać cały wyraz.

Nie jest to futurystyczna scenka, tylko opis wyników działania urządzenia obecnego na rynku od prawie dwóch lat. To intendiX, produkt austriackiej firmy g.tec.

Wyjść z zamknięcia

IntendiX i podobne mu, nieliczne na rynku urządzenia umożliwiają komunikację ze światem zewnętrznym pacjentom w ciężkich stadiach stwardnienia zanikowego bocznego (ALS), udaru mózgowego podkorowego, zespołu Guillaina-Barrégo, mózgowego porażenia dziecięcego czy stwardnienia rozsianego (SM). Mogą pomóc też pacjentom po udarach mózgu i powypadkowych uszkodzeniach odcinka szyjnego rdzenia kręgowego. W Polsce jest kilkanaście tysięcy niepełnosprawnych lub okaleczonych osób, w UE nawet kilka milionów.

Urządzenie, kosztujące obecnie ponad 12 tys. dol., jest jednym z rynkowych wdrożeń rozwiązania zwanego interfejsem mózg-komputer (Brain-Computer Interface - BCI).

BCI - sterowanie myślą?

- Medialnie nośne byłoby stwierdzenie, że BCI to rozwiązanie, które odczytuje nasze myśli i przetwarza je na rozkazy komputera - wyjaśnia dr hab. Piotr J. Durka, prof. UW, kierownik Zakład Fizyki Biomedycznej Uniwersytetu Warszawskiego, jeden z najlepszych polskich specjalistów w dziedzinie BCI. - Tymczasem podstawą jego działania jest analiza aktywności mózgu pozwalająca tylko na odczyt świadomie generowanych intencji (np. ruchu) lub silnego skupiania uwagi na wybranym symbolu.

BCI wykorzystuje dobrze rozpoznane zjawiska, np. stwierdzono, że patrzenie na migające światło powoduje emitowanie przez korę wzrokową fal o takiej samej częstości. Jeśli pacjent skupi swą uwagę na symbolu migającym na ekranie komputera z określoną częstością, jego mózg wytworzy falę o takiej samej częstotliwości. Wyłapie ją układ pomiarowy i przekaże, przez wzmacniacz, na powrót do oprogramowania. Oprogramowanie rozpoznaje częstość i już wiadomo, na jaki symbol patrzący zwracał uwagę.

Przyszłościowe EEG

Najbardziej obiecujące - także pod względem komercjalizacji - są systemy je pseudo-BCI i prawdziwe BCI - mówi Nowak. - Te pierwsze są komercyjnie dostępne i nawet niedrogie, nie kosztują więcej niż kilkaset dolarów. Najczęściej nie przechwytują sygnałów z mózgu, tylko sygnały elektryczne, które są związane np. z napięciem mięśni twarzy w chwili koncentracji.

Szlachetne wcielenie neuromarketingu

Jeśli chory może kontrolować jakąś aktywność mięśniową, np. oddech czy ruch oka, można w oparciu o tę czynność stworzyć szybszy, stabilniejszy i tańszy interfejs, nazywany czasem "zależnym BCI" w odróżnieniu od "prawdziwych" BCI, niezależnych od czynności mięśni. Takiego interfejsu używa od lat wybitny fizyk Steven Hawking chory na ALS - skurczem policzka wybiera kolejne z pojawiających się na ekranie liter lub wyrazów, po czym kompletne zdania są wypowiadane przez syntezator mowy.

- Dla osób mogących poruszać oczami dobrym rozwiązaniem może być eye tracker (okulograf) - wyjaśnia Durka. - Jest to rozwiązanie znane w neuromarketingu, umożliwia na przykład badanie, na które elementy reklamy odbiorca patrzy najpierw i na których najdłużej zatrzymuje wzrok. Przeprogramowanie urządzenia, pozwalające na podążanie kursora za wzrokiem osoby patrzącej na ekran, jest stosunkowo proste. Jednak koszt czułego okulografu to kilkanaście tysięcy dolarów, co przekracza możliwości finansowe większości niepełnosprawnych w Polsce - tworzenie takich rozwiązań wymaga naprawdę wysokich nakładów, o czym świadczy np. ostatnia inwestycja firmy Intel, która za 21 mln dol. nabyła 10% akcji jednego z czołowych producentów eyetrackerów, szwedzkiej firmy Tobii. To znacznie przekracza możliwości "hobbystycznego" podejścia pracowników UW, ale i tu znalazło się rozwiązanie. Współpracownik zwrócił moją uwagę na stronę eyewriter.org, na której grupa inżynierów i programistów z firm i fundacji pokazuje wspólne przedsięwzięcie, czyli budowę okulografu dla chorego artysty przy wykorzystaniu kamery od konsoli PS3. Dwa tygodnie pracy w oparciu o udostępnione przez autorów na otwartej licencji fragmenty oprogramowania oraz tworzony na Wydziale system oprogramowania OpenBCI, plus ok. 200 zł na części to całe koszty budowy pierwszego prototypu. Oczywiście nie jest to rozwiązanie tej klasy co najbardziej zaawansowane eyetrackery do neuromarketingu, jest czułe na ruchy głowy i mniej dokładne, ale przy odpowiednim oprogramowaniu może dać pacjentom w częściowych stanach zamknięcia szansę na samodzielną komunikację. Niestety konstrukcji takich "prostych" rozwiązań nie można zaliczyć do badań podstawowych, które należą do obowiązków pracowników Uniwersytetu. Na szczęście i tu znaleźliśmy rozwiązanie: proste implementacje technologii asystujących są przedmiotem praktyk zawodowych studentów neuroinformatyki, a konstrukcję tanich okulografów finansuje grant Funduszu Inicjatyw Dydaktycznych UW.

Oko zamiast myszki

W Polsce na rynek wchodzi właśnie zależne BCI - NeurON Input gdyńskiej firmy ARound, działające jak wirtualna myszka. Rejestrowane ruchy głową i mruganie powiekami są przekształcane na ruch kursora i kliknięcia, można też użyć wirtualnej klawiatury.

Paradygmaty BCI

SSVEP (Steady State Visual Evoked Potentials) - potencjały wzrokowe stanu ustalonego. Patrzenie na światło migające z określoną częstością sprawia, że w korze wzrokowej mózgu pojawiają się oscylacje o dokładnie takiej samej częstotliwości. Jeśli w polu widzenia są dwa źródła światła o różnych częstościach, kora wzrokowa odtwarza częstość tego źródła światła, o którym myśli osoba patrząca.

P300 - potencjały wywoływane, widoczne w zapisie EEG ok. 300 ms po bodźcu. Na podstawie tego zapisu komputer może odróżnić, na jakie bodźce zwraca uwagę patrzący.

ERD/ERS (event-related desynchronization/synchronization) - odczyt wyobrażenia ruchu prawą/lewą ręką i przenoszenie go na konkretne zadanie. Okazuje się najbardziej skomplikowany w realizacji, wymaga dużej ilości elektrod i wielu powtórzeń.

Rozmowa z Łukaszem Miądowiczem, prezesem firmy Around, która stworzyła pierwszy polski zależny BCI

Skąd przyszła inspiracja do stworzenia takiego rozwiązania?

Mój siostrzeniec cierpi na ADHD. Cztery lata temu towarzyszyłem mu podczas wizyty u psychologa, który nałożył mu specjalny hełm z elektrodami i poprosił, by przesunął samochód z jednego rogu ekranu do drugiego. Byłem pod wrażeniem, gdy okazało się, że można wykonać to zadanie bardzo sprawnie dzięki skoncentrowaniu się na nim.

Potem przyszła koncepcja?

Niezupełnie. Biznesowo zajęło mnie augmented reality. W 2011 roku z trzema kolegami założyłem firmę ARound. Dyrektor techniczny dr inż. Bartosz Reichel oraz wiceprezes Mateusz Kuszner, podobnie jak ja, pracują naukowo na Wydziale Fizyki Teoretycznej i Matematyki Stosowanej Politechniki Gdańskiej, zaś Aleksander Lech jest doświadczonym programistą. Kilka miesięcy po założeniu firmy natknęliśmy się na informację o konkursie Intel Business Challenge, w którym młode firmy technologiczne mogą pokazać innowacyjne pomysły o największym potencjale biznesowym. Wtedy wymyśliłem, by połączyć nasz produkt, czyli silnik augmented reality, właśnie z elektroencefalografią. Zajęliśmy drugie miejsce w Europie Środkowo-Wschodniej.

Ten pomysł to był właśnie NeurON Input?

Jeszcze nie. To był NeurON, narzędzie do szkolenia monterów. Użytkownik zakłada specjalne okulary, a na głowę - elektroencefalograf. Przegląda wirtualną instrukcję i wykonuje wskazane w niej prace. Strony instrukcji przesuwa, mrugając oczami - Urządzenie rejestruje odpowiedni sygnał. i przetwarza go na zadanie dla komputera. Okulary pozwalają oglądać obraz 3D z nakładanymi animacjami.

Zatem pomysł znacznie ewoluował. Dlaczego i jak?

Nagrodą za drugie miejsce w konkursie był wyjazd do Haas School of Business - renomowanego college'u na Uniwersytecie w Berkeley. Tam przeszliśmy od myślenia czysto technicznego do komunikacji biznesowej. Po publikacjach w mediach o naszym pomyśle zgłosiło się do nas kilkanaście osób - rodzicówi opiekunów osób niepełnosprawnych. Uświadomili nam oni, jak można przetworzyć pomysł, by umożliwił osobom z dysfunkcjami sprawne posługiwanie się komputerem, np. korzystanie z sieci społecznościowych. NeurON przekształciliśmy w NeurON Input w ciągu dwóch tygodni.

A jak ten pomysł przenosi się do Polski?

Ciężko, choć mamy już pełnowartościowy produkt - dopracowany i przetestowany. Sprzedawać możemy już teraz. Próbujemy docierać do grupy docelowej, czyli rodziców i opiekunów osób niepełnosprawnych czy sparaliżowanych, przez stowarzyszenia. Duża inercja. Pracujemy praktycznie nad każdym kontaktem osobno - w ich pozyskiwaniu pomaga Pomorski Park Naukowo-Technologiczny, gdzie się mieścimy, i Fundacja Jaśka Meli Poza Horyzonty.

Skoro produkt jest gotowy, ile będzie kosztował?

Produkt ma kosztować 2000-2500 zł. W tej cenie koszt nakładki stanowi obecnie 300 dol. Pozostała kwota to koszt oprogramowania wraz z kalibracją. Dla porównania: toporne rozwiązania medyczne do komunikacji typu interfejs mózg-komputer kosztują kilka, a nawet kilkanaście tysięcy dolarów.

Połączenie pracy naukowej i prowadzenia biznesu działa?

Tak. Uczelnia to świetne miejsce do rozwoju naukowego: Mateusz i ja kształcimy się tu na studiach doktoranckich. Katedra Fizyki Teoretycznej i Informacji Kwantowej to znakomita kuźnia HR. Mając wpływ na kształcenie studentów, prowadząc zajęcia choćby w wymiarze 15 h/rok, tworzymy doskonały zasób kadrowy. Możliwe, że o dzisiejszym zdolnym studencie będzie można niedługo usłyszeć jako o specjaliście w naszym zespole. Z drugiej strony, uczelnia nie stawia na komercjalizację, blokując ten proces rozrośniętą biurokracją. Przyznam, że nawet firmę założyłem ze zdenerwowania tą sytuacją.

Artykuł pochodzi magazynu Proseed. Pobierz najnowszy numer

Więcej o: