Deeplocker: IBM Forscher tarnen gezielte Angriffe mit AI-Verschlüsselung

Bild: IBM

Cyberkriminelle setzen künstliche Intelligenz (AI) immer öfter als Waffe ein. Daher müssen Sicherheitsexperten die Mechanismen und Auswirkungen der bösartigen Nutzung von AI verstehen, um diesen Bedrohungen immer einen Schritt voraus zu sein und angemessene Abwehrmaßnahmen ergreifen zu können. IBM Research hat nun Deeplocker als Proof of Concept Demonstration entwickelt. Dabei handelt es sich um eine neuartige Klasse von sehr zielgerichteten und schwer fassbaren Angriffen, die künstliche Intelligenz nutzen.

Ziel sei es, zu verstehen, wie verschiedene bekannte AI- und Malware-Techniken kombiniert werden könnten, um eine neue Form von Malware zu schaffen, nämlich eine, die ihre bösartige Absicht verbirgt, bis sie ein bestimmtes Ziel erreicht hat, so die Forscher. Die Malware schaffe dies, indem sie ein Deep Neural Network (DNN) AI-Modell verwendet, um den Schadcode in gutartigen Carrier-Anwendungen zu verstecken. Der Schadcode wird wirklich nur dann freigeschaltet, wenn das beabsichtigte Ziel erreicht wurde.

Deeplocker nutzt verschiedene Attribute für die Zielerkennung, einschliesslich Gesichts- und Stimmerkennung, Geolokalisierungs- und System-Level-Features. Im Gegensatz zu vorhandener evasiver und gezielter Malware würde diese Methode es extrem schwierig machen, die gutartige Trägersoftware durch "Reverse Engineering" zu analysieren und Informationen bezüglich der Absicht und Ziels des Angriffs zu gewinnen.

Deeplocker wird heute auf der Black Hat USA 2018 Sicherheitskonferenz in Las Vegas vorgestellt.