Zeit 01.03.2026
09:08 Uhr

Vereinbarung mit US-Verteidigungsministerium: OpenAI nennt "rote Linien" für militärische Nutzung seiner KI


Laut OpenAI darf das US-Militär seine KI-Systeme nur unter strengen Bedingungen nutzen. Zuvor war es zwischen der US-Regierung und Anthropic zum Zerwürfnis gekommen.

Vereinbarung mit US-Verteidigungsministerium: OpenAI nennt
Der KI-Entwickler OpenAI hat seine Vereinbarung mit dem US-Verteidigungsministerium verteidigt. Die Vereinbarung zur militärischen Nutzung seiner KI-Systeme sehe mehr Schutzmaßnahmen als jeder frühere Vertrag in als geheim eingestuften Bereichen vor, teilte das Unternehmen mit. OpenAI verwies auf mehrere "rote Linien". Demnach darf das Verteidigungsministerium die Technologie nicht zur Massenüberwachung im Inland, zur Steuerung autonomer Waffensysteme oder ⁠für automatisierte Entscheidungen mit weitreichenden ​Folgen eingesetzt werden. Das Unternehmen behalte die volle Kontrolle und behalte sich bei Vertragsbruch eine Kündigung vor. Nutzung "für alle legalen Zwecke" erlaubt Die Inhalte der Vereinbarung sind bisher nicht aus weiteren Quellen bekannt. In den vergangenen Wochen war es zwischen dem Verteidigungsministerium und OpenAIs Konkurrenten Anthropic zu einem öffentlichen Zerwürfnis gekommen. Anthropic hatte auf ähnlichen Nutzungsbedingungen bestanden, wie sie OpenAI verhandelt haben will. Das Verteidigungsministerium – das unter seinem Minister Pete Hegseth zum "Kriegsministerium" umbenannt wurde – hatte daraufhin die Zusammenarbeit mit Anthropic beendet. Warum OpenAI nun den Zuschlag bekommen hat, ist unklar. In seiner Pressemitteilung zitiert das Unternehmen aus dem Vertrag, wonach das Verteidigungsministerium seine KI-Systeme "für alle legalen Zwecke" nutzen darf. Eine solche Klausel hatte Anthropic zuletzt abgelehnt: Gerade bei der Überwachung im Inland gingen die gesetzlich erlaubten Maßnahmen hier zu weit, argumentierte das Unternehmen . In der von OpenAI zitierten Vertragspassage heißt es nun, die Überwachung im Inland durch KI-Systeme dürfe nur dort erfolgen, wo das im Einklang mit geltendem Recht erfolge. Weiterhin heißt es wörtlich, eine KI dürfe keine autonomen Waffensysteme bedienen, "sofern das Recht, die Regulierung oder die Regeln des Ministeriums menschliche Kontrolle erfordern". Öffentliche Solidarität mit Anthropic Öffentlich solidarisierte sich OpenAI mit seinem Konkurrenten. Anthropic solle nicht als "Lieferkettenrisiko" eingestuft werden, wie es die US-Regierung angekündigt hat. "Wir haben unsere Position dazu gegenüber der ‌Regierung deutlich gemacht", heißt es in der Pressemitteilung des Unternehmens. In den vergangenen Wochen hatte sich der Wettstreit zwischen den beiden KI-Entwicklern verschärft – auch wegen wechselseitiger Vorwürfe um das Anzeigenmodell , das OpenAI in seiner KI ChatGPT einführen will. Bei einer gemeinsamen Veranstaltung in Indien hatten die beiden Unternehmenschefs Sam Altman und Dario Amodei daraufhin einander den Handschlag verweigert .