Das US-Verteidigungsministerium erwägt einem Medienbericht zufolge, die Zusammenarbeit mit dem führenden KI-Unternehmen Anthropic zu beenden. Der Kern des Disputs liegt in den Nutzungsbedingungen der KI-Modelle von Anthropic. Das Pentagon drängt darauf, dass vier wichtige KI-Anbieter, darunter Anthropic, OpenAI, Google und xAI, dem Militär den Einsatz ihrer Werkzeuge für „alle rechtmäßigen Zwecke“ gestatten, einschließlich der Waffenentwicklung, der Beschaffung von Geheimdienstinformationen und Einsätzen auf dem Schlachtfeld. Anthropic hat diesen weitreichenden Forderungen jedoch nicht zugestimmt, was nach monatelangen Verhandlungen die Geduld des Pentagon erschöpft haben soll. Dies deutet auf einen tiefgreifenden Konflikt zwischen militärischen Anforderungen und ethischen KI-Leitlinien hin.
Ein Sprecher von Anthropic betonte, das Unternehmen habe den Einsatz seines KI-Modells Claude für bestimmte Operationen nicht mit dem Pentagon besprochen. Die laufenden Gespräche mit der US-Regierung konzentrierten sich vielmehr auf Aspekte der Nutzungsrichtlinie, die klare Grenzen für vollständig autonome Waffen und die Massenüberwachung im Inland vorsehen – Bereiche, die laut Anthropic nicht mit aktuellen Operationen in Verbindung stünden. Während das Pentagon die strategische Notwendigkeit einer umfassenden KI-Nutzung im Militär unterstreicht, positioniert sich Anthropic als Verfechter ethischer KI-Entwicklung, was die Kluft zwischen beiden Parteien verdeutlicht. Das Unternehmen scheint bemüht, seine Prinzipien zu wahren, auch wenn dies eine lukrative Partnerschaft gefährdet.
Die Brisanz des Themas wurde durch einen Bericht des „Wall Street Journal“ verstärkt, demzufolge Anthropic’s KI-Modell Claude über eine Partnerschaft mit dem Datenunternehmen Palantir bei einem US-Militäreinsatz zur Ergreifung des ehemaligen venezolanischen Präsidenten Nicolás Maduro eingesetzt wurde. Wofür genau die Software verwendet wurde – Claude kann Dokumente analysieren und Informationen zusammenfassen –, blieb unklar. Diese mögliche Nutzung steht im direkten Widerspruch zu Anthropic’s eigenen Nutzungsrichtlinien, die den Einsatz von Claude für Gewaltanwendung, Waffenentwicklung oder Überwachung verbieten. Anthropic selbst wollte sich zu spezifischen Operationen nicht äußern, betonte aber, dass jegliche Nutzung seiner Dienste, ob privat oder staatlich, innerhalb der festgelegten Richtlinien erfolgen müsse, und man arbeite mit Partnern daran, dies sicherzustellen.
Anthropic-Chef Dario Amodei ist bekannt für seine Warnungen vor den Risiken künstlicher Intelligenz und setzt sich im Gegensatz zu vielen seiner Branchenkollegen für strengere Leitplanken bei der KI-Entwicklung ein. Diese Haltung brachte ihn bereits auf Kollisionskurs mit dem KI-Beauftragten des Weißen Hauses, David Sacks. US-Verteidigungsminister Pete Hegseth hatte im Januar klar positioniert, das Pentagon wolle keine KI-Modelle nutzen, „die es nicht erlauben, Kriege zu führen“, und unterstrich dies mit einem Vertrag mit Elon Musks KI-Firma xAI. Der Konflikt zwischen Anthropic und dem Pentagon beleuchtet nicht nur die ethischen Dilemmata, sondern auch die sich verschiebenden Machtverhältnisse in der Rüstungsindustrie, in der KI zunehmend eine zentrale Rolle spielt.

