|
19.02.2026
16:34 Uhr
|
Das Pentagon droht Anthropic, OpenAI kauft den OpenClaw-Entwickler und wie schön Claude Code die Homepage meines Kollegen baut. Der KI-Newsletter

Sie lesen den KI-Newsletter " Natürlich intelligent " vom 19. Februar 2026. Um den Newsletter jeden Donnerstag per Mail zu erhalten, melden Sie sich hier an . Autsch. Ein ungekennzeichneter KI-Videoschnipsel in einem öffentlich-rechtlichen Fernsehbeitrag? Und das auch noch mit einem Wasserzeichen der Video-KI Sora von OpenAI? Das ist übel, das ist ein Anfängerfehler, das ist genau das, was nicht passieren sollte. Ist es aber. Und zwar in einem Beitrag des ZDF heute journals , in dem Social-Media-Videos von Einsätzen der US-Abschiebetruppe ICE zu sehen waren. Mein Kollege David Will kommentiert zu Recht : Vertrauen stellt man so nicht her. Gerade dann nicht, wenn man wie hier das ZDF auch noch herumgeeiert hatte, bevor man sich ausführlich entschuldigte und den Beitrag entfernte. Das müssen Sie wissen: Das Pentagon droht Anthropic Wie unter einem Brennglas kann man derzeit beobachten, wie viel Macht die US-Regierung über US-Tech-Unternehmen hat oder möglicherweise auch nicht hat. Das Pentagon stehe "kurz davor", den Claude-Entwickler Anthropic als "Lieferketten-Risiko" einzustufen, meldete das Nachrichtenportal Axios diese Woche . Was bedeuten würde: Firmen, die mit dem US-Verteidigungsministerium zusammenarbeiten, dürften nicht mehr Anthropics Modelle verwenden. Für das KI-Unternehmen hätte das enorme Konsequenzen. Damit droht ein Streit zu eskalieren, der schon länger zwischen Anthropic und dem US-Verteidigungsministerium schwelt. Es geht um die Frage, unter welchen Bedingungen amerikanische Militärs die Fähigkeiten von Anthropics KI-Model Claude einsetzen dürfen. Übrigens das einzige Sprachmodell, das derzeit in geheim eingestuften Umgebungen eingesetzt werden darf. Claude soll Medienberichten zufolge sogar bei der Festnahme des venezolanischen Präsidenten Nicolás Maduro eine Rolle gespielt haben. Das Pentagon will, dass Anthropic und auch drei weitere große KI-Entwickler (OpenAI, Google und xAI) dem US-Militär gestatten, ihre Technologie für "alle rechtmäßigen Zwecke" zu verwenden. Was Anthropic nicht passt. Dessen Chef Dario Amodei ist bekannt dafür, dass er immer wieder vor den Gefahren durch künstliche Intelligenz warnt – und gleichzeitig als Pragmatiker im Wettrennen um die Superintelligenz vorne mitspielen will. Seine Firma soll laut Axios bereit sein, ihre Nutzungsbedingungen aufzuweichen, sperrt sich aber gegen einen Einsatz von Claude für die Massenüberwachung von US-Amerikanern und im Zusammenhang mit autonomen Waffensystemen, die ohne menschliches Zutun funktionieren. Wenn wir uns noch im Tech-Klima von vor wenigen Jahren bewegen würden, würde Anthropic damit eine völlig durchschnittliche Position einnehmen. Inzwischen arbeiten viele Silicon-Valley-Unternehmen aber nur zu gerne mit dem Militär und den Geheimdiensten zusammen . Wie sehr Anthropic auf seiner Position beharrt, wird sich zeigen. Im Grunde sehen wir hier einen Test, wie ernst sie es mit ihrem Einsatz für sichere, verantwortungsvolle KI am Ende wirklich meinen. Darüber sollten Sie nachdenken: Happs, weg ist der OpenClaw-Entwickler Von "VERANTWORTUNG" schrieb diese Woche auch Peter Steinberger, der Mann hinter dem viel beachteten KI-Agenten OpenClaw . Der Österreicher hat seit dieser Woche einen neuen Job: beim ChatGPT-Entwickler OpenAI. Dessen Chef Sam Altman hatte die Personalie am Sonntag persönlich verkündet und Steinberger als "Genie" gelobt. Das genoss Steinberger nicht nur schweigend, er ließ auf dem Weg von Europa in die USA noch einen kleinen Wutanfall da. Auf X schrieb er , in Europa werde er beschimpft, "Leute schreien REGULIERUNG und VERANTWORTUNG". Er beklagte, dass er sich als Gründer hier mit Investitionsschutzgesetz und Arbeitszeitregulierungen abkämpfen müsse. Während bei OpenAI die meisten sechs oder sieben Tage die Woche durcharbeiteten. Äußerungen, die so manches deutsche Wirtschaftsmedium begeisterten. Weil: Braindrain, kein Einzelfall, bye bye Innovationsland, hör dem Mann doch mal einer zu! Ich für meinen Teil bin so old Europe und teutonische Innovationsbremse, dass ich es bei einem Produkt wie OpenClaw gar nicht so abwegig finde, über Verantwortung zu reden. Weil mit großer Autonomie ja große Risiken nicht ausbleiben dürften. Immerhin reden wir über einen KI-Agenten, der mein Konto leer räumen könnte oder meinen Computer schrotten, der in privaten Mails wühlt oder Firmengeheimnisse ausplaudern könnte. Was der (nicht besonders europäische) Meta-Konzern offenbar für so gefährlich hält, dass er seinen Mitarbeitern verboten hat , OpenClaw auf Arbeitsgeräten zu installieren. Das können Sie ausprobieren: Claude Code Seit einiger Zeit liest man ja rauf und runter, wie beeindruckt selbst namhafte Programmierer von den Fähigkeiten von Claude Code sind, sozusagen der Programmierversion des gleichnamigen Chatbots. Aber: Wie weit trägt Claude Code einen, wenn man selbst nicht programmieren kann? Mein Kollege Henrik Oerding hat es für die ZEIT ausprobiert . Mit vollem Erfolg: Er hat jetzt seine Homepage schön. Dafür waren nötig: 18 Euro pro Monat für die Pro-Version, neun halbstündige Sitzungen mit der KI, keine Furcht vor der Arbeit in der Kommandozeile und, nun ja: ein befreundeter Softwareentwickler, der sich den KI-Code dann noch einmal angeschaut hat. Der fand dann nämlich eben doch noch eine kleine Sicherheitslücke. Alles in allem war Henrik aber durchaus angetan. Was etwas heißen will: Dieser Mann ist nicht immer begeistert, nur weil irgendwo KI draufsteht .