ATAP (Advanced Technologies and Projects) to zaawansowana jednostka badawcza w Google. Zajmuje się zarówno poszukiwaniem odpowiedzi na zaawansowane zagadnienia techniczne, jak i poszukiwaniem odpowiedzi na pytanie "jak powinna wyglądać interakcja człowiek - maszyna".
I zdaje się, że znaleźli odpowiedź przynajmniej na to ostatnie pytanie. W ramach Projektu Soli stwierdzili, że najbardziej uniwersalnym i precyzyjnym narzędziem, jakie mamy do dyspozycji, jest ludzka dłoń. Jednak gdy musimy manipulować obiektami na maleńkim ekranie - na przykład smartwatcha - sprawia nam to czasem problem, bo powierzchnia którą mamy do dyspozycji jest naprawdę mała. Rozwiązanie? Jest rodem z filmu science-fiction.
W ATAP twierdzili, że można po prostu... wyeliminować ekran, na którym dotykiem lub gestami wprowadzamy informacje. Zamiast tego, gesty wykonywane są w powietrzu. Niezbędny jest do tego miniaturowy radar, wbudowany w urządzenie, którym chcemy manipulować.
Projekt Soli Fot. Joanna Sosnowska/ LG G4 Fot. Joanna Sosnowska/ LG G4
Radar ten wykrywa gesty wykonywane przed urządzeniem, takie jak:
- przewijanie
- naciskanie
- obracanie
i pewnie jeszcze kilka innych.
Sterowanie urządzeniem gestami w taki sposób wydaje się dużo bardziej intuicyjne i naturalne, niż na przykład sterowanie głosem. Jak przyszłościowe jest to rozwiązanie? Cóż, ma większy sens niż manipulowanie rysikiem przy małej tarczy zegarka.
Projekt Soli Fot. Joanna Sosnowska/ LG G4 Fot. Joanna Sosnowska/ LG G4
Projekt powstał i rozwinął się w ciągu zaledwie 10 miesięcy. Dość wspomnieć, że w tym czasie sam radar z 10-centymetrowej płytki (zdjęcie powyżej) przybrał rozmiary mniej więcej karty microSD.