euchtend heller Baum in der Nacht: Jede Einzelheit ist maschinell erkennbar (Bild: purdue.edu)

Mit der "Heat-Assisted Detection and Ranging" (Hadar) lassen Forscher der Purdue University selbst im Stockdunklen noch jede Einzelheit eines Objekts aufscheinen. Die wärmeunterstützte Erkennung und Entfernungsmessung überwindet die Einschränkungen herkömmlicher Techniken wie Restlichtverstärkung, nutzt thermische Physik, Infrarotbildgebung und maschinelles Lernen, um Textur, Tiefe und physikalische Eigenschaften von Szenen und Objekten auch bei schwierigen Lichtverhältnissen sichtbar zu machen.

2030 wird jedes zehnte Auto autonom unterwegs sein, prophezeit Entwicklungsleiter Zubin Jacob. Jedes sei dann mit mehreren Systemen zur Erkennung und Überwachung der Umwelt ausgestattet. Herkömmliche aktive Sensoren wie LiDAR oder Lichterkennung und Entfernungsmessung, Radar und Sonar senden Signale aus und empfangen die Reflexionen, um 3D-Infos über eine Szene zu sammeln. Diese Methoden hätten wegen Signalstörungen allerdings Nachteile. Videokameras seien zuverlässiger, aber nur bei sehr guten Lichtverhältnissen. In der Nacht, bei Nebel oder Regen seien sie nur eingeschränkt oder gar nicht nutzbar.

Herkömmliche Wärmebildtechnik basiert auf Sensoren, die unsichtbare Wärmestrahlung von allen Objekten im Blickfeld sammelt. Diese werde allerdings gestreut, sodass unscharfe Bilder entstehen, die nicht leicht zu interpretieren sind. "Dieser Verlust von Informationen, Texturen und anderen Eigenschaften ist ein Hindernis für die maschinelle Verarbeitung von Wärmebildern", unterstreicht Jacob. Mit maschinellem Lernen haben er und sein Mitarbeiter Fanglin Bao die Unschärfe beseitigt, sodass alle Details zu erkennen sind, heisst es.

"Stockfinstere Dunkelheit enthält die gleiche Menge an Informationen wie helles Tageslicht. Die Evolution hat dazu geführt, dass die Menschen auf Helligkeit ausgerichtet sind. Die maschinelle Wahrnehmung der Zukunft wird den Unterschied zwischen Tag und Nacht überwinden. HADAR stellt die Textur aus dem unübersichtlichen Wärmesignal auf anschauliche Weise wieder her und entwirrt Temperatur, Emissionsgrad und Textur", sagt Bao. Sogar Details wie leichte Wellen und die Textur von Baumrinden würden sichtbar.

Noch ist das System in der Praxis nicht einsetzbar. "Der aktuelle Sensor ist gross und schwer. Um es in selbstfahrende Autos oder Roboter einbauen zu können, müssen Grösse und Preis gesenkt und die Kamera schneller werden. Der aktuelle Sensor braucht etwa eine Sekunde, um ein Bild zu erstellen, aber für autonome Autos benötigen wir etwa 30 bis 60 Bilder pro Sekunde", erklärt Bao abschliessend.



Der Online-Stellenmarkt für ICT Professionals