Bildsensor lernt das Sehen (Bild: TU Wien)

Einen neuartigen Bildsensor, der in Sekundenbruchteilen Objekte erkennen kann, haben Wiener Forscher entwickelt. Das Besondere an dem Chip ist, dass das Erkennen nicht durch aufwendige nachträgliche Analyse von Bildern am Computer erfolgt, sondern dass die Wissenschaftler ihren auf Basis eines ultradünnen Materials entwickelten Chip direkt auf jene Strukturen hin trainieren, die er identifizieren soll.

Erreicht wird dies, indem der Sensor selbst eine Art neuronales Netz darstellt, das durch Erfahrung lernen kann. Solche Netze sind eine der Grundlagen von maschinellem Lernen und in ihrem Aufbau der Struktur den Nervenzellen im menschlichen Gehirn ähnlich: Werden einzelne Neuronen durch einen Reiz zum Feuern gebracht, steigt die Wahrscheinlichkeit, dass auch mit ihr verbundene Nervenzellen in ihrer Umgebung aktiv werden. Wiederholt sich dieser Vorgang, werden die Verbindungen zwischen diesen Neuronen stärker.

Ähnlich ist die Vorgangsweise auch beim maschinellen Lernen. Hier wird ein ebensolches digitales, neuronales Netz aufgebaut und die Stärke der einzelnen Verbindungen so lange abgestimmt, bis das System die gewünschten Ergebnisse produziert. Das kann etwa das zuverlässige Erkennen von Personen durch autonom fahrende Autos sein.

Eine Gruppe von Wissenschaftlern um Thomas Müller vom Institut für Photonik der Technischen Universität (TU) Wien arbeitet an sogenannten 2D-Materialien, die nur wenige Atomschichten dick sind. In diesem Rahmen entwickelten die Forscher einen neuartigen Fotodetektor aus Wolframdiselenid, dessen Lichtempfindlichkeit exakt eingestellt werden kann. Während bei herkömmlichen Kameras jeder Bildpunkt (Pixel) einzeln ausgelesen wird, "schalten wir bei unserer ‘Kamera‘ die Pixel mit ihren benachbarten zusammen - und zwar so, dass sie ein neuronales Netz bilden", erklärt Müller. "Trainiert" wird bei diesem Netz die Empfindlichkeit der einzelnen Detektorelemente.


Gelernt wird an auf den Sensor projizierten Bildern. "Im Lernprozess werden die Empfindlichkeiten immer wieder angepasst, bis der Chip den Output liefert, den wir uns erhoffen. Das können etwa die Buchstaben ‘n‘, ‘v‘ und ‘z‘ sein, wie wir in der Arbeit zeigen, oder auch jedes beliebige andere Bild", lässt Müller wissen. Der Chip könne aber etwa auch auf Fussbälle oder Sonnenuntergänge trainiert werden. Das Üben könnte zukünftig auch am Computer vor sich gehen und die gewichteten Lichtempfindlichkeiten dann auf den Chip geladen werden, so der Forscher.

Wenn das detektierte Muster mit dem Gelernten übereinstimmt, schlägt der Sensor selbstständig innerhalb von 50 Nanosekunden an. Das sei nicht nur weit schneller als bei herkömmlichen Bilderkennungsverfahren, es werden auch keine rechenintensiven Bilder aufgenommen und damit kaum Speicherplatz und Rechenkapazität benötigt. Der Nachteil sei, dass die gesuchten Strukturen nicht beliebig komplex sein können, "es ist wahrscheinlich weniger dazu geeignet, einzelne Hunderassen voneinander zu unterscheiden", betont Müller. Hilfreich wäre das System aber vor allem im wissenschaftlichen Bereich, wenn es etwa in physikalischen Experimenten bestimmte Strukturen, wie die Ausbreitung von Rissen, Turbulenzen oder winzige Teilchen nachzuweisen gilt. Für das Team von der TU geht es jetzt darum, ihren noch relativ kleinen Chip zu vergrössern.