Im Test: So sehen die Gefahrenmelder der US-Armee aus (Foto: army.mil)

Schlaue kleine Roboter mit empfindlichen Sensoren werden Soldaten künftig im Feld unterstützen. Sie sind in der Lage, winzige Veränderungen in der Umwelt zu erkennen, die Menschen nicht auffallen, etwa die Bewegung eines getarnten Feindes. Die Soldaten erhalten diese Infos in Echtzeit als Einblendungen in ihren Datenbrillen. Das System haben Mitarbeiter des Forschungsinstituts der U.S. Army entwickelt.

Der Mensch, der die Infos erhält, muss diese interpretieren und reagieren. Er muss sich entscheiden, ob er das, was er in seiner Datenbrille sieht, als Bedrohung einschätzt oder ob es harmlos ist und keine Reaktion erfordert. "Dies könnte dazu führen, dass Roboter ihre menschlichen Team-Kollegen über Änderungen in der Umgebung informieren, die vom Soldaten übersehen oder für ihn nicht wahrnehmbar sind, was ihnen ein erhöhtes Sicherheitsgefühl verleiht", sagt Mitentwickler Christopher Reardon.

Die meisten Arbeiten zur Verwendung von Mixed-Reality-Schnittstellen zwischen Mensch und Roboter finden nicht in realen Umgebungen statt, sondern in Laboren. Die Forscher haben sie ins Feld verlegt. Der geländegängige Roboter ist mit Sensoren ausgestattet, die Entfernungen mithilfe eines Laserstrahls messen. Bekannt ist dieses Verfahren als Lidar. Wenn der Roboter auf Patrouille ist, vergleicht er ständig das aktuelle 3D-Bild, das der Lidar-Sensor liefert, mit dem, was zuvor zu sehen war. Sobald eine Abweichung auftritt, spielt er das verdächtige Bild in die Augmented-Reality-Brille seines menschlichen Partners ein.

Die Experten haben Lidar-Sensoren unterschiedlicher Auflösung getestet. Fazit: Bilder, die Sensoren mit niedriger Auflösung liefern, reichen aus, um von Menschen richtig interpretiert zu werden. Das senkt die Kosten und beschleunigt den Bildaufbau in der Datenbrille. Menschen können somit schneller reagieren. Reardon glaubt, dass das Team Roboter-Mensch künftig zur Norm wird. Dazu sei aber noch weitere Forschungsarbeit nötig. Es geht vor allem darum, die Interpretationsfähigkeit des Roboters selbst zu stärken, sodass er seltener Bilder übermittelt, auf denen keine wirkliche Bedrohung zu erkennen ist. Im Idealfall wird der Roboter sogar "sagen" können, um welche Gefahr es sich aktuell handelt.