FAZ 26.02.2026
07:10 Uhr

KI-Unternehmen: Warum Anthropics Streit mit der US-Regierung eskaliert


Das KI-Unternehmen hat ein schwieriges Verhältnis zur Trump-Regierung. Washington setzt im Streit mit Anthropic nun ein Ultimatum – und droht mit ungewöhnlich harschen Schritten.

KI-Unternehmen: Warum Anthropics Streit mit der US-Regierung eskaliert

Ein seit Wochen schwelender Streit zwischen der US-Regierung und dem auf Künstliche Intelligenz spezialisierten Unternehmen Anthropic ist eskaliert: Verteidigungsminister Pete Hegseth hat dem Anthropic-Vorstandschef Dario Amodei bei einem Treffen am Dienstag ein Ultimatum bis zum Freitag dieser Woche gesetzt, um bisherige Restriktionen für den Einsatz der KI-Modelle des Unternehmens zu lockern. Hegseth hat Medienberichten zufolge mit harschen Strafen gedroht, falls Anthropic seiner Aufforderung nicht nachkomme. Dem Unternehmen könnte nicht nur ein auf 200 Millionen Dollar dotierter Auftrag entzogen werden. Hegseth drohte ihm auch, es als sogenanntes „Lieferkettenrisiko“ einzustufen und somit auf eine Art schwarze Liste zu setzen. Dies ist eine Sanktion, die üblicherweise für Unternehmen mit Verbindungen zu Ländern wie China oder Russland gewählt wird, und sie könnte für Anthropic gravierende Konsequenzen haben. Sie würde andere Vertragspartner des Pentagons dazu zwingen, zu zertifizieren, dass sie in ihrer Arbeit für die Regierung keine Produkte von Anthropic einsetzen. Somit könnten Anthropics Kooperationen mit vielen Technologieunternehmen gefährdet sein. Der auf KI-Politik spezialisierte Analyst Dean Ball, der im vergangenen Jahr auch einige Monate lang Berater für Technologiefragen im Weißen Haus war, schrieb auf der Plattform X, eine Klassifizierung als Lieferkettenrisiko könnte für das Unternehmen „existenziell“ sein und es viel Geschäft kosten. Weiterhin soll Hegseth gedroht haben, Anthropic durch Aktivierung des „Defense Production Act“ dazu zu zwingen, seine Regeln zu ändern. Auch das wäre ein sehr ungewöhnlicher Schritt. Dieses Gesetz kam zuletzt vor allem bei nationalen Notständen zum Einsatz. Inmitten der Corona-Pandemie berief sich die Regierung zum Beispiel darauf, um Unternehmen zur Produktion medizinischer Ausrüstung zu zwingen und damit entsprechende Engpässe zu überwinden. „Inländische Massenüberwachung“ als „rote Linie“ Der Streit dreht sich um die Vertragskonditionen zwischen Anthropic und der US-Regierung. Bislang sehen die Nutzungsbedingungen des Unternehmens zwei größere Einschränkungen für den Einsatz seiner KI-Modelle vor. Sie dürfen nicht für Technologien zur Massenüberwachung von Amerikanern sowie zur Entwicklung autonomer Waffensysteme verwendet werden. Das Pentagon besteht dagegen darauf, die Modelle für „alle rechtmäßigen Zwecke“ einsetzen zu dürfen. Anthropic hat sich seit seiner Gründung im Jahr 2021 als KI-Unternehmen positioniert, dem die Sicherheit seiner KI-Systeme besonders wichtig ist. Amodei schrieb erst vor wenigen Wochen in einem längeren Essay: „Wir müssen unseren Regierungen Grenzen setzen, was sie mit KI tun dürfen.“ „Inländische Massenüberwachung“ nannte er als „rote Linie“. Mit Blick auf automatisierte Waffensysteme verwies er auf das Risiko, dass sie von Regierungen gegen ihre Bürger eingesetzt werden könnten. Nach einem Bericht des Fernsehsenders CNN vertritt Anthropic zudem die Auffassung, KI-Technologien seien noch nicht zuverlässig genug, um damit Waffensysteme zu betreiben. Neben Anthropic haben im vergangenen Jahr auch die Wettbewerber Open AI, Google und X.AI Aufträge vom Pentagon im Wert von 200 Millionen Dollar bekommen. Bis vor Kurzem war Anthropic allerdings der einzige Partner, dessen KI-Modelle für geheimhaltungsbedürftige Zwecke eingesetzt werden konnten. Kürzlich wurde bekannt, dass fortan auch X.AI, das von Elon Musk gegründete Unternehmen, auf dieser Geheimhaltungsebene mit dem Pentagon arbeiten darf. Es ist allerdings unklar, ob die KI-Modelle von X.AI Anthropic ersetzen könnten. Anthropics KI-Modell Claude gilt als eines der besten in der Branche und wird offenbar auch von der Regierung rege genutzt. Innerhalb des Pentagons soll es Medienberichten zufolge auch warnende Stimmen geben, wonach eine Abkehr von Anthropic einen herben Verlust darstellen würde. Anthropics Wettbewerber haben offenbar in ihrer Zusammenarbeit mit der Regierung weniger Vorbehalte. Die „Washington Post“ schrieb vor wenigen Tagen, Open AI, Google und X.AI hätten wie vom Pentagon gewünscht dem Einsatz ihrer Technologien für „alle rechtmäßigen Zwecke“ zugestimmt. Unstimmigkeiten nach Maduro-Intervention Das Verhältnis zwischen der gegenwärtigen US-Regierung und Anthropic ist schon seit einiger Zeit schwierig. Amodei hat sich in der Vergangenheit sehr kritisch über Präsident Donald Trump geäußert. Das Unternehmen spricht sich auch für eine strengere KI-Regulierung aus, während die KI-Politik des Weißen Hauses darauf abzielt, Unternehmen bei der Entwicklung dieser Technologien weitgehend freie Hand zu lassen. David Sacks, der oberste KI-Berater von Trump, hat Anthropic vorgeworfen, „woke KI“ zu entwickeln und sich als „Organisation des Widerstands“ aufzuspielen. Zu weiteren Unstimmigkeiten kam es kürzlich im Zusammenhang mit der Intervention der US-Regierung in Venezuela, die zur Gefangennahme des Machthabers Nicolás Maduro führte. Das „Wall Street Journal“ schrieb, bei diesem Einsatz sei Anthropics KI-Modell Claude verwendet worden, und zwar im Rahmen einer Kooperation mit dem Softwareunternehmen Palantir, einem wichtigen Partner des Pentagon. Dem Bericht zufolge hat ein Mitarbeiter von Anthropic nach der Aktion bei Palantir hinterfragt, in welcher Weise Claude dabei genutzt worden sei. Dies habe im Ministerium für Unmut gesorgt und sei als Indiz gewertet worden, dass Anthropic dem Einsatz von Claude für solche Zwecke kritisch gegenüberstehe. Ein Pentagon-Sprecher sagte, die Beziehungen zu Anthropic würden nun überprüft. Anthropic verteidigte sich und sagte, etwaige Gespräche mit Partnerunternehmen beschränkten sich auf „Routinediskussionen“ zu technischen Angelegenheiten. Inmitten des Streits mit dem Pentagon hat Anthropic derweil seine eigenen Sicherheitsregeln aufgeweicht. Bislang sahen die Richtlinien des Unternehmens vor, die Arbeit an KI-Modellen zu stoppen, die als gefährlich eingestuft werden könnten. Anthropic begründete dies unter anderem mit dem Wettbewerbsumfeld. Chefwissenschaftler Jared Kaplan sagte, es ergebe keinen Sinn, „einseitige Verpflichtungen“ abzugeben, wenn die Konkurrenz ohne solcherlei Einschränkungen voranpresche.