|
07.03.2026
15:33 Uhr
|
Für zivile Projekte könnte man Claude und Co. weiter verwenden, meinen Tech-Giganten.

Nachdem Produkte von Anthropic für Anwendungen im Feld von nationaler Sicherheit und Militär durch das Pentagon als „Sicherheitsrisiko“ eingestuft wurden, stärken Amazon, Google und Microsoft dem KI-Startup den Rücken. Die Unternehmen betonten unabhängig voneinander, ihre Kunden könnten Claude und andere Tools von Anthropic weiterhin mit den Werkzeugen von Google und Microsoft verwenden.
Dies berichtet CNBC unter Berufung auf Aussagen von Sprechern der beiden Unternehmen. Zuerst hatte sich Microsoft „nach einer Prüfung durch unsere Anwälte“ am Donnerstag für einen Verbleib von Anthropic-Zugängen über seine Angebote ausgesprochen. Das gelte für alle Microsoft-Kunden außer dem Pentagon. Am Freitag folgte dann Google, das „für nicht-militärische“ Projekte ebenfalls Claude und Co. über seine Cloud-Dienste anbieten will. Ebenso will auch Amazon verfahren.
Das US-Verteidigungsministerium hatte am Freitag die Produkte von Anthropic offiziell als „Supply-Chain-Risk“ eingestuft. Das war zuvor nur für ausländische Unternehmen wie Huawei erfolgt. Vorausgegangen war ein lange eskalierter Streit um den Einsatz von Anthropic-Tools durch das Pentagon. Das Softwareunternehmen wollte Massenüberwachung von US-Bürgern und autonome Waffensysteme mit seinen Produkten von der Nutzung durch das Militär ausschließen. Darauf wollte sich das Ministerium nicht einlassen, und setzte Anthropic ein Ultimatum, das am Freitag ablief. Andere Anbieter, wie OpenAI und xAI hatten Medienberichten zufolge weniger Bedenken.
Der aktuellen Regelung zufolge gilt der Bann nur für das Verteidigungsministerium, nicht für sämtliche staatlichen Auftraggeber. Wohl auch deswegen haben sich Amazon, Google und Microsoft nun bemüht, ihre Kunden zu beruhigen – zahlreiche Projekte, auch für öffentliche Stellen, dürften bereits mit Claude entwickelt werden. Nicht nur Anthropic, auch den drei Tech-Riesen drohen hohe Verluste, wenn die Kunden nun die Plattformen wechseln würden. Anthropic seinerseits will die Einstufung als Sicherheitsrisiko rechtlich anfechten.
(nie)