Siły porządkowe i centra zarządzania kryzysowego dużych miast coraz chętniej stosują tańsze od helikopterów latające roboty z kamerami. Stado dronów bardzo się przyda do analizy ruchu samochodów lub pieszych i optymalizowania nowych ciągów komunikacyjnych, albo np. do inspekcji odśnieżenia dachów. Setki kamer w powietrzu będą też nie od rzeczy w czasie zamieszek i imprez masowych.
Roboty muszą mieć pewną autonomię i w miarę samodzielnie nawigować wśród budynków, słupów i kabli. Nie mogą też zderzać się ze sobą nawzajem. Jak zadbać o dobrą orientację w przestrzeni u takiej maszyny?
Matryca CMOS opracowana przez inżynierów z Instytut Fraunhofera w Duisburgu to serce systemu antykolizyjnego. Kamera robi ocenia odległość dzięki oświetlaniu otoczenia przez krótkie impulsy świetlne. Dzięki nanosekundowej migawce i zdjęciom porównawczym udało się opracować urządzenie, które rzeczywiście widzi głębię.
- Nasz sensor może mierzyć odległości w trzech wymiarach bardzo wydajnie - zachwala szef zespołu, który opracował matrycę, Werner Brockherde. - Przede wszystkim, każdy piksel ma przypisaną wartość odległości.
Dzięki takiemu rozwiązaniu, maszyna może łatwo ocenić swoją pozycję względem innych przedmiotów dookoła. Radar nie jest alternatywą , bo przy małych odległościach nie jest wystarczająco dokładny. Dzięki nowej matrycy latający robot może identyfikować obiekty kilkunastocentymetrowe z odległości ponad 7 metrów.
Co więcej, transmisja danych sięga 12 klatek na sekundę, więc komputer pokładowy będzie miał dość informacji, by uniknąć zderzenia z latarnią, innym dronem lub ptakiem.