Sitz des Pentagon (Bild: CC By-SA 3.0)

Das US-Verteidigungsministerium unter Pete Hegseth droht, die Kooperation mit dem KI-Unternehmen Anthropic zu beenden, weil Anthropic auf Beschränkungen bei der Nutzung seiner Modelle durch das ‌US-Militär bestehe, wie das Nachrichtenportal Axios unter Berufung auf einen Regierungsvertreter berichtet.

Das Pentagon dringe darauf, dass vier KI-Unternehmen dem Militär den Einsatz ihrer Werkzeuge für "alle rechtmässigen Zwecke" gestatten, einschliesslich der Waffenentwicklung, der Beschaffung ​von Geheimdienstinformationen und Einsätzen auf dem Schlachtfeld. Anthropic habe diesen Bedingungen jedoch nicht ⁠zugestimmt. Dem Bericht zufolge sei die Geduld des Pentagon mit Anthropic nach monatelangen Verhandlungen erschöpft. Zu den anderen Unternehmen gehören OpenAI, Google und xAI.

Wie ein Sprecher ​von Anthropic erläutert, habe das KI-Startup ​den Einsatz seines KI-Modells Claude für ​bestimmte Operationen nicht mit dem Pentagon besprochen. Die Verhandlungen mit der US-Regierung hätten ‌sich bisher auf verschiedene Aspekte der Nutzungsrichtlinie konzentriert, darunter klare Grenzen für vollständig autonome Waffen und die Massenüberwachung im ​Inland. Keine ​davon beziehe sich auf ⁠aktuelle Operationen. Autonome Waffen wählen ohne menschliche Beteiligung Ziele aus und töten Gegner. Die Oxford-Philosophin Mariarosaria Taddeo fordert in diesem Zusammenhang daher die Einführung von neuen Kriegsregeln.

In der Zeitung "Wall Street Journal" ​hat es geheiessen, dass das KI-Modell Claude von Anthropic über eine ‌Partnerschaft mit dem Datenunternehmen Palantir bei dem Einsatz des US-Militärs zur Ergreifung des ehemaligen venezolanischen Präsidenten Nicolas ‌Maduro eingesetzt wurde. Eine Stellungnahme des Pentagons lag ​zunächst nicht vor.
Wofür genau die Anthropic-Software bei der Militäroperation in Venezuela verwendet wurde, blieb unklar. Claude kann – so wie auch ChatGPT – unter anderem Dokumente analysieren und Informationen zusammenfassen. Zugleich verbieten die Nutzungsrichtlinien von Anthropic den Einsatz von Claude für Gewaltanwendung, Waffenentwicklung oder Überwachung.