Im Streit über den Einsatz von künstlicher Intelligenz im Krieg gegen Iran hat OpenAI-Chef Sam Altman laut Medienberichten eingeräumt, dass er nicht kontrollieren könne, wie das US-Militär die Technik einsetzt.
Das Eingeständnis soll in einer Betriebsversammlung am Dienstag gefallen sein, in der der Firmenchef die Kritik an seinem jüngsten Deal mit dem Pentagon adressierte. »Ihr dürft keine operativen Entscheidungen treffen«, sagte Altman laut Berichten von Bloomberg und CNBC zu den Mitarbeitenden. Ihre persönliche Haltung zu Militäreinsätzen wie in Venezuela und in Iran spiele keine Rolle. »Ihr habt dabei kein Mitspracherecht«, soll Altman gesagt haben.
Streit zwischen Anthropic und US-Regierung
In den vergangenen Wochen ist die KI-Branche in hitzige Diskussionen verwickelt. Das Pentagon verlangte von KI-Unternehmen, Sicherheitsleitplanken aus ihren Modellen zu entfernen, um ein breiteres Spektrum militärischer Anwendungen zu ermöglichen. Laut Medienberichten sollen KI-gestützte Systeme bereits bei der Militäroperation der USA zur Festnahme des venezolanischen Staatschefs Nicolás Maduro sowie bei Zielentscheidungen im Krieg gegen Iran eingesetzt worden sein.
Protest vor dem Londoner Sitz von OpenAI: Die gesellschaftlichen Sorgen wegen des Einsatzes von KI wachsen
Foto: SOPA Images / LightRocket / Getty ImagesAnthropic, OpenAIs Rivale und Entwickler des Chatbots Claude, lehnte die Forderungen aus dem Pentagon ab. Das Unternehmen befürchtete, dass seine KI-Technologie für die inländische Massenüberwachung oder vollautonome Waffen eingesetzt werden könnte. US-Präsident Donald Trump ordnete daraufhin an, Bundesbehörden sollten die Nutzung von Anthropic-Diensten möglichst sofort beenden, und beschimpfte die Firma als »linke Spinner«.
Der umstrittene Deal von OpenAI
Damit endete nicht nur der 200-Millionen-Dollar-Vertrag der Firma mit dem Pentagon. Nach Trumps Wutrede verkündete Pete Hegseth, der US-Verteidigungsminister, Anthropic zusätzlich als Lieferkettenrisiko für die nationale Sicherheit einzustufen, sodass auch Auftragnehmern, Lieferanten und Partnern des Militärs Geschäfte mit der Firma untersagt sind. Anthropic kündigte an, die Einstufung gerichtlich anzufechten.
OpenAI nutzte das Zerwürfnis zum eigenen Vorteil. Am selben Tag, an dem Hegseth Strafmaßnahmen gegen Anthropic androhte, kündigte das Pentagon einen neuen Vertrag mit OpenAI an.
Tonight, we reached an agreement with the Department of War to deploy our models in their classified network.
— Sam Altman (@sama) February 28, 2026
In all of our interactions, the DoW displayed a deep respect for safety and a desire to partner to achieve the best possible outcome.
AI safety and wide distribution of…
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.
Altman und OpenAI versuchten seitdem zu beteuern, dass die US-Regierung ihre Dienste nicht nach Belieben zu jedem Zweck einsetzen könne. In dem Deal sei vereinbart worden, dass die KI nicht zur Massenüberwachung in den USA und zur Steuerung autonomer Waffensysteme eingesetzt werden dürfe. Also ähnliche Forderungen, wie sie auch schon Anthropic hatte. Kritiker warnten jedoch davor, dass OpenAI dem US-Militär zu viel Interpretationsspielraum in der Vereinbarung gelassen habe. Am Montag teilte OpenAI mit, die Vereinbarung enthalte nach eiligen Nachverhandlungen nun ausdrücklich die Regel, dass KI-Systeme nicht »absichtlich« zur Überwachung der US-Bevölkerung genutzt werden dürften. Doch die Kritik an der Vereinbarung verstummte nicht.
Kundschaft entscheidet sich für Claude
Viele Nutzerinnen und Nutzer strafen OpenAI bereits ab. Nachdem die Vereinbarung mit dem US-Verteidigungsministerium verkündet wurde, stiegen die Deinstallationen der mobilen App von ChatGPT in den USA am 28. Februar um 295 Prozent gegenüber dem Vortag. Das wertete das Marktforschungsunternehmen Sensor Tower aus. Auch die Downloadrate von ChatGPT sank.
Unterdessen stiegen die Downloads von Claude, dem Chatbot von Anthropic, um 37 Prozent gegenüber dem Vortag. Die Daten deuten darauf hin, dass eine Reihe von US-Verbrauchern die Position von Anthropic in dieser Angelegenheit offenbar befürwortet.
