Googles Forschungsteam ATAP zeigt zur Entwicklerkonferenz Google I/O ein Radar-Modul, das feinste Fingergesten erfassen kann. Die Technik ist vor allem für Smartwatches interessant.
Das Format einer Armbanduhr setzt der Bedienung per Touch natürliche Grenzen – wegen der Größe des Bildschirms. Die Forscher von Googles ATAP-Team sind daher auf die Idee gekommen, Fingergesten in der Luft per Radar mit Frequenzen um 60 GHz zu erfassen. Auf der Entwicklerkonferenz Google I/O haben sie über die Technik von "Project Soli" gesprochen. Projektgründer Ivan Poupyrev sagt, das Ziel von Project Soli sei, die Möglichkeiten der Menschlichen Hand zu filigransten Bewegungen zur Steuerung von Technik zu nutzen. Im Vergleich zu einer Kamera, wie etwa Microsofts Kinect, soll Radar wesentlich bessere Präzision in der Erfassung feinster Bewegungen bieten. Extreme Auflösung
Damit soll es etwa möglich sein, virtuelle Schieberegler, Drehknöpfe oder Taster zu bedienen, indem der Radar-Sensor die dafür typischen Bewegungen wie das Aneinanderwischen oder das Zusammentipplten von Zeigefinger und Daumen erfasst. In der gezeigten Form misst Soli 2.000 mal pro Sekunde. Die Auflösung ist so gut, dass es Menschen unmöglich ist, ein stehendes Signal zu erzeugen. Denn niemand kann seine Hand so ruhig halten. Poupyrevs Team hat es geschafft, den Radarsensor in einen Chip von Fingernagelgröße zu schrumpfen. Es gibt also keine beweglichen Teile. Anders als eine Kamera funktioniert Radar zudem in gewissem Maß durch andere Materialien hindurch, daher ließe sich der Chip zum Beispiel in eine Smartwatch integrieren.
Serienreif ist die Technik bei weitem nicht. Allerdings, so Chefdesigner Carsten Schwesig, sei die Hardware funktionsfähig. Nun gehe es dem Team darum, zu erforschen, ob und wie gut die Radar-Erfassung für Fingergesten praxistauglich ist und was sich damit anstellen lässt. Schwesig möchte auch mit dem Einsatz im Bereich Musik experimentieren.