|
29.01.2026
20:02 Uhr
|
Umstrittene Firmen wie Palantir unterstützen die US-Behörde ICE mit KI-Tools. Das macht ein Problem sichtbar, vor dem Datenschützer seit Jahren warnen. Der KI-Newsletter

Sie lesen den KI-Newsletter "Natürlich intelligent" vom 29. Januar 2026. Um den Newsletter jeden Donnerstag per Mail zu erhalten, melden Sie sich hier an . Es ist gerade Berichtssaison. Das ist schnörkelloses Börsendeutsch dafür, dass Unternehmen ihren Anlegern wieder einmal in schnörkellosen Zahlen präsentieren müssen, wie gut oder schlecht es gerade läuft. Auch die großen Techfirmen legen gerade nach und nach Zeugnis ab, und natürlich kommt dabei kein Earnings Call ohne das Wort "künstliche Intelligenz" aus. Im stichpunktartigen KI-Stil (aber von Hand getippt!) hier drei Erkenntnisse als Zwischenstand: Es geht Meta und Microsoft sehr gut, der Umsatz steigt, der Gewinn auch. (Apple, Alphabet und Amazon legen erst später Zahlen vor – die sollen den Prognosen zufolge auch gut ausfallen.) Mit tollen neuen KI-Agenten macht man noch nicht nennenswert Geld. Meta finanziert seine KI-Ambitionen weiter mit Werbung, Microsoft über Clouddienste. Es ist eigentlich egal, was sonst bei den Techfirmen los ist – KI ist immer die Lösung. Meta vernachlässigt das für die Firma namensgebende Metaverse und will sein Geld auf KI werfen. Microsoft enttäuscht die sehr hohen Erwartungen und will noch mehr Geld auf KI-Pionier OpenAI werfen . Diese hohen Investitionen machen die Anleger vor allem im Fall von Microsoft nervös. Denn der Konzern aus Redmond ist im Cloudgeschäft stark von OpenAI abhängig. die das bekanntlich gerade seinen KI-Nimbus an Google zu verlieren. Das sollten Sie wissen: Wie Palantir die US-Behörde ICE mit KI-Tools unterstützt Seit den tödlichen Schüssen auf die US-Bürger Renée Good und Alex Pretti ist in den USA eine heftige Debatte über die Einwanderungsbehörde ICE entbrannt. Deren Beamte suchen in US-Städten nach Menschen ohne Aufenthaltsgenehmigung und gehen dabei oft rücksichtslos vor. Dieser Teil der Arbeit von ICE ist in der Öffentlichkeit sichtbar. Nahezu unsichtbar ist das Arsenal an digitalen Werkzeugen, auf die ICE-Mitarbeiterinnen zugreifen können, wenn sie Menschen identifizieren wollen, die sie womöglich verhaften und abschieben können. Zu den Technologien im Einsatz gehört auch: künstliche Intelligenz. ICE setzt etwa KI-Werkzeuge ein, die Gesichter identifizieren sollen . Begegnen sie in einer Stadt jemandem, den die Beamten für verdächtig halten, gleichen sie das Gesicht Berichten zufolge in Echtzeit mit Daten zu biografischen Informationen ab. Im aktuellen Inventurbericht des Heimatschutzministeriums , dem ICE unterstellt ist, heißt es außerdem, dass eine KI-Software des umstrittenen US-Unternehmens Palantir genutzt wird. Die soll dabei helfen, Hinweise aus der Bevölkerung "schneller zu identifizieren und zu bearbeiten". Das Tool liefere auch eine Zusammenfassung des Hinweises – unter Verwendung mindestens eines großen Sprachmodells. Bemerkenswert daran ist die Kombination aus sensiblen Daten und hochpotenten digitalen Werkzeugen. Selbst Steuerdaten und Daten, die einst für Werbung gedacht waren , flossen oder fließen offenbar in die Analyse von ICE mit ein. Das Thema Datenschutz wirkt oft etwas angestaubt. Und doch: Diese wilde Verknüpfung von Daten durch invasive Tools ist genau das Angstszenario, vor dem Datenschützerinnen und Netzaktivisten seit Jahren warnen. Wenn Daten einmal erhoben sind, kann man sie nicht zurückholen. Und sie können dann auch für Zwecke eingesetzt werden, die man vorher nicht für möglich gehalten hätte. Darüber sollten Sie nachdenken: Werden KI-Agenten je verlässlich sein? 2025 konnte man kurz glauben, dass nerviger Orgakram bald der Vergangenheit angehören könnte. Nicht in irgendeiner fernen Zukunft, sondern schon jetzt. KI-Agenten, hieß es da, würden uns Urlaubsbuchungen, Terminplanung und Restaurantreservierungen abnehmen. Im Alltag klappte das leider nur so mittel- bis gar nicht gut . Eine Studie weckt nun Zweifel daran, dass KI-Agenten jemals hilfreich für uns sein könnten. Große Sprachmodelle seien ab einer bestimmten Komplexität nicht in der Lage, rechnerische und agentische Aufgaben auszuführen oder sie auf Genauigkeit zu überprüfen, heißt es darin. Es gebe keinen Weg, dass die Systeme verlässlich seien, sagte Vishal Sikka, der ehemalige Technikchef von Deutschlands größtem IT-Konzern SAP und einer der Autoren des Papers, dem US-Techmagazin Wired . Grund dafür sind im Wesentlichen Halluzinationen – wenn die KI also einfach Quatsch produziert. Selbst OpenAI gibt zu, dass man die wohl auch in Zukunft nicht zu 100 Prozent eliminiert bekommt . Trotzdem glaubt die KI-Branche, dass man die Probleme früher oder später lösen kann – mit Leitplanken, die den Quatsch herausfiltern. Immerhin: Selbst Sikka hält das für eine Möglichkeit. Was man daraus lernen kann: Womöglich wird KI nie verlässlich sein. Aber vielleicht kann man sie verlässlich genug machen. Das können Sie ausprobieren: Moltbot Egal, was die Zukunft bringt: Dass es für KI-Agenten durchaus einen Markt gibt, verdeutlicht gerade der Hype um Moltbot . Seit einigen Wochen überlassen manche Techinteressierte ihre Rechner dem KI-Agenten. Sie lassen sich eigenständig von ihm Termine für Massagen buchen, er postet für sie auf der Plattform X und erinnert sie daran, ins Bett zu gehen . Der KI-Agent kann auch Code schreiben und sich Zugriff auf andere KI-Systeme verschaffen. Moltbot, früher Clawdbot, ist ein KI-Agent, den man per Befehl in einem Chatprogramm wie WhatsApp oder Signal steuern kann. Im Hintergrund läuft eine KI der Wahl, also Anthropics Claude oder Googles Gemini. Der Agent selbst läuft lokal auf dem Rechner und ist quelloffen. In der Entwicklercommunity gilt das als Goldstandard, weil so jeder und jede das Programm nachvollziehen kann. Anders als die meisten Tools, die wir in dieser Kategorie empfehlen, ist Moltbot nicht einfach per Klick herunterladbar oder nutzbar – man muss schon mehr als Microsoft Word bedienen können, um die Anleitung auf der Website umzusetzen. Der Autor Federico Viticci hat genau das nun für MacStories gemacht und dem KI-Agenten Zugriff auf seine Dateisysteme und lauter nerdige Aufgaben gegeben. Der Bot könne programmieren, selbst neue Sachen installieren und so ziemlich alles tun, was man sich vorstellen könne – und das mit ein paar geäußerten Wünschen via Chat. Viticcis Urteil ist klar: Moltbot sei das Werkzeug, das digitaler Intelligenz bisher am nächsten komme. Es sei einmal erwähnt, dass IT-Experten darauf hinweisen , dass ein KI-Agent, der alles machen kann, relativ schnell von einer anderen Person überlistet werden könnte – etwa wenn der Bot Zugriff auf Social-Media-Konten hat und jemand per Direktnachricht mit ihm kommunizieren kann. Wem das egal ist, weil er oder sie schon mal ein bisschen KI-Zukunft schnuppern will, dürfte in Moltbot einen willigen Helfer finden.