3D-Objekte: Forscher haben Position nur leicht verändert (Foto: auburn.edu)

Ein von Forschern der Auburn University trainiertes neuronales Netzwerk hat Googles bestes Bilderkennungssystem "Inception" hinters Licht geführt. Die Wissenschaftler haben Objekte mittels Rotation in spezielle Positionen gebracht, wodurch es zur Falscherkennung gekommen ist. Lediglich 3,09 Prozent der 3D-Objekte konnte die Google-Engine korrekt identifizieren.

Die Experten haben einen Datensatz bestehend aus 100 dreidimensionalen Bildern genutzt, um das neuronale Netzwerk in der Bilderkennung zu trainieren. Unter den Abbildungen waren Fahrzeuge, wie Schulbusse, Feuerwehrautos, Stoppschilder, Sitzbänke und Hunde. Diese 3D-Objekte wurden von den Wissenschaftlern mithilfe einer Methode, die sich "Random Search" nennt, gezielt manipuliert. Bei ihren Tests hat Inception den grössten Teil der Stichproben nicht richtig erkannt. Bei 30 Objekten lag die Erkennungsrate bei 3,09 Prozent.

Vor allem Posen, die jenseits der Norm sind, führten dazu, dass Googles Bilderkennungssystem getäuscht wurde. Den Autoren der Studie zufolge hat bereits eine leichte Modifikation einen grossen Einfluss auf Inception. Schon eine Drehung von acht Grad in Bezug auf den Neigungswinkel und 9,17 Grad hinsichtlich des Rotationswinkels reichten aus, um das Bilderkennungssystem ausser Gefecht zu setzen.



Der Online-Stellenmarkt für ICT Professionals