Zeit 11.12.2025
16:03 Uhr

Künstliche Intelligenz: Für Google könnte es teuer werden


Die EU ermittelt gegen Google. Chatbots überzeugen, wenn sie mit falschen Fakten um sich werfen. Die französische KI-Hoffnung Mistral 3 ist da. Der KI-Newsletter

Künstliche Intelligenz: Für Google könnte es teuer werden
Sie lesen den KI-Newsletter " Natürlich intelligent " vom 11. Dezember 2025. Um den Newsletter jeden Donnerstag per Mail zu erhalten, melden Sie sich hier an . Kennen Sie sich mit künstlicher Intelligenz (KI) aus? Sie denken, schon? Dann geht es Ihnen anscheinend wie den meisten Deutschen. In einer repräsentativen Umfrage des Meinungsforschungsinstituts YouGov gaben vier von fünf Befragten an, gut zu verstehen, was künstliche Intelligenz ist. Zugleich sagte rund die Hälfte der Befragten in Deutschland, dass sie KI nicht regelmäßig nutzen würden. 29 Prozent verwenden KI gar nicht. Wie passt das zusammen? Vielleicht ist hier der Dunning-Kruger-Effekt am Werk: jenes psychologische Phänomen, wonach Menschen dazu neigen, sich auch dann für fähig zu halten, wenn sie eigentlich keine Ahnung haben. Führungsqualitäten? Hab ich. Mein Allgemeinwissen? Breit. KI? Kann ich. Vielleicht wissen hierzulande aber viele Menschen einfach, wie viel Stuss KI von sich geben kann – und lassen deshalb lieber die Finger davon. Das müssen Sie wissen: Die EU stört sich an Googles KI-Training Eine KI-Übersicht sowie ein KI-Modus, in dem die klassischen Suchergebnisse fast ganz verschwinden: Google ist auch nicht mehr, was es mal war. Auf eine externe Webseite zu klicken, wird immer öfter überflüssig. Den Seitenbetreibern entgeht dadurch Geld, von Google gibt es für die von der KI zusammengefassten Inhalte auch nichts. Die EU-Kommission hält das für illegal und hat darum Ermittlungen eingeleitet. Der Vorwurf: Google bediene sich bei Dritten, ohne ihnen "eine angemessene Vergütung zu zahlen und ohne ihnen die Möglichkeit zu geben, eine solche Nutzung ihrer Inhalte abzulehnen", wie es in einer Mitteilung der Kommission heißt . Die EU vermutet zudem, dass Google seine KI mit den Videos von Milliarden Nutzern trainiert, die ihre Inhalte bei der Tochterfirma YouTube hochgeladen haben. Bestätigen sich die Vorwürfe, wird es sehr teuer. Dann droht ein Bußgeld in Höhe von bis zu zehn Prozent des weltweiten Jahresumsatzes des Konzerns. Das wären mit Blick auf die jüngsten Zahlen des Mutterkonzerns Alphabet bis zu 35 Milliarden Dollar ( PDF ). Nicht einmal eine Woche nach der Entscheidung gegen X geht die EU damit erneut gegen einen Tech-Konzern aus den USA vor. Das würde für die These des Kartellrechtlers Rupprecht Podszun sprechen, mit dem ich mich über das Bußgeld gegen X unterhalten habe. Er sagt: In der EU setzt ein Wandel im Denken ein . Darüber sollten Sie nachdenken: Chatbots überzeugen mit falschen Fakten Menschen hören nicht auf Fakten. So in etwa lautet die ernüchternde Diagnose, die manche Verhaltensforscher in den vergangenen Jahren immer wieder gestellt haben . Eine Studie, die vor Kurzem im Fachmagazin Science erschienen ist, stellt diese These in ein neues Licht. Forschende ließen 77.000 Menschen im Vereinigten Königreich mit Chatbots kommunizieren, die auf unterschiedliche Überzeugungsstrategien trainiert worden waren. Das Ergebnis: Chatbots, die besonders viele Fakten aufzählten, waren am erfolgreichsten. Personalisierte Inhalte waren dagegen weniger effektiv. Die schlechte Nachricht: Für die Überzeugungsarbeit war es nicht wichtig, ob die Argumente der Wahrheit entsprachen. Laut den Forschern erzählten die überzeugendsten Chatbots sogar besonders oft Unsinn. Wichtig war nur, dass sie besonders viele Scheinfakten aufzählten . Folgt man den Forschern, dann könnte man daraus schließen: Wir hören sehr wohl auf Fakten. Wir sind nur nicht gut darin, sie in wahr und falsch zu unterteilen. Das könnten Sie ausprobieren: Mistral 3 KI auf dem Unternehmensrechner oder zu Hause laufen lassen, ohne Internet und Cloud? Von den Sprachmodellen, die leistungsfähig sind und dennoch wenig Ressourcen fressen, kamen dafür bisher vor allem chinesische Modelle wie Deepseek infrage. Allerdings sind dort die Vorgaben der chinesischen Zensurbehörde eingebacken. Fragt man Deepseek etwa nach dem Tian’anmen-Massaker von 1989, kommt nur eine Entschuldigung : "Sorry, das liegt außerhalb meines Funktionsumfangs". Wem das nicht gefällt, kann sich nun Mistral 3 angucken, die neueste frei verfügbare Modellreihe des KI-Startups Mistral AI aus Frankreich. Mit den Spitzenmodellen von OpenAI, Google oder Anthropic kann sie nicht mithalten. Anders als diese sind die unterschiedlich großen Modellvarianten von Mistral aber sogenannte Open-Weights-Modelle, ihre Parameter sind also sowohl einseh- als auch anpassbar. Dafür kommen sie auf beachtliche Benchmarks. Ich habe Mistral 3 noch nicht heruntergeladen, aber die Online-Version ausprobiert, bei der man einige kostenlose Anfragen frei hat. Und tatsächlich: Die KI kann was. Sie weiß zum Beispiel, wie viele Rs im Wort "Strawberry" vorkommen – anders als viele andere Modelle, die bis heute an solchen Aufgaben scheitern. Das Modell ist schnell, auch die Emoji-Dichte hält sich in Grenzen. Für mich ist das inzwischen fast das Wichtigste bei einem Chatbot. Einfache Gleichungen kann Mistral 3 aber immer noch nicht lösen. Immerhin macht es weniger grammatikalische Fehler im Deutschen, die bei seinem Vorgängermodell noch auffällig waren. Dafür versteht es Sprachspiele anscheinend nicht mehr. Ein Beispiel: Warum sind Geister so schlechte Lügner? Weil man direkt durch sie durchschaut! Haha! Also ja: Wunder sollte man von Mistral 3 nicht erwarten. Für viele alltägliche Arbeiten dürfte das Modell aber passable bis gute Ergebnisse liefern. Und wenn man es dann doch nicht nutzt, hat man trotzdem etwas davon. Denn mit einer KI auf dem Heimrechner kann man erst recht sagen: künstliche Intelligenz? Damit kenn ich mich aus.