FAZ 24.11.2025
07:25 Uhr

Künstliche Intelligenz: Ist das echt?


KI-Bilder fluten das Netz – und verändern unsere Wahrnehmung: Ein Lächeln wirkt weniger, echte Fotos geraten unter Verdacht. Was passiert mit einer Gesellschaft, die ihren Augen nicht mehr traut?

Künstliche Intelligenz: Ist das echt?

Braune Staubmassen steigen auf. Nach wenigen Sekunden verhüllen sie schon die gesamte Flanke eines Berges. Nur noch eine gigantische Autobahnbrücke ragt aus ihnen hervor. Schon knicken ihre Betonpfeiler ein. Die Brücke fällt in sich zusammen. Die wackelige Kamera zoomt ran, während der Staub die einstürzende Brücke verschlingt. Sie ist weg. Dieses Video verbreitete sich vergangene Woche in den sozialen Medien. Bei vielen Betrachtern – das kann man an den Kommentaren unter dem Video sehen – löste es eine Frage aus: Ist das echt? Das war es dieses Mal. Die 750 Meter lange Hongqi-Brücke in China ist tatsächlich infolge eines Erdrutsches eingestürzt. Doch diese erste skeptische Reaktion zeigt, dass sich in den letzten Jahren etwas verschoben hat. Grund ist die Masse an Bilder und Videos, die mit Künstlicher Intelligenz erstellt werden. Sie sind überall im Internet – und lassen Zweifel an der Echtheit von allem aufkommen, was zu spektakulär, zu interessant, zu perfekt wirkt. Galten Fotos früher meistens als Beleg dafür, dass etwas wirklich passiert ist, so können sie heute genauso gut einer KI entsprungen sein. Die Frage „Ist das echt?“ wird zum ständigen Begleiter. KI-Bilder mit großer Reichweite Was macht das mit uns? Führt die Flut an KI-Bildern in eine Welt, in der wir nichts mehr trauen können? Werden Bilder jeglichen Wert verlieren? Manipulieren uns die KI-Inhalte? Psychologen, Neurowissenschaftler und Computerexperten beginnen gerade, erste Antworten auf diese Fragen zu finden. Dafür erforschen sie, wie das Gehirn und die Psyche auf KI-Bilder reagieren. KI-Bildgeneratoren basieren heute vor allem auf sogenannten Diffusion-Modellen – Algorithmen, die lernen, aus Bildrauschen Schritt für Schritt ein Motiv entstehen zu lassen. Das Prinzip klingt simpel, die Wirkung ist gewaltig: Aus ein paar Worten können diese Systeme inzwischen jedes vorstellbare Bild erzeugen – von stilvollen Innenräumen, die es nie gab, über Szenen einer angeblichen Verhaftung Donald Trumps bis hin zu Mischwesen aus Jesus und Krustentieren. Letztere, genannt „Shrimp Jesus“, waren vor Kurzem eine Art Trend in den sozialen Medien. Ein frühes Beispiel für ein KI-Bild, das viral durchs Netz ging, lieferte im März 2023 der Bauarbeiter Pablo Xavier aus Chicago. Während er, wie er später dem Portal Buzzfeed News erzählte, high auf psychoaktiven Pilzen war, tippte er beim Bildgenerator Midjourney die Worte „Papst“, „Balenciaga Daunenmantel“ und „geht durch Rom“ ein. Heraus kam das berühmte Bild von Franziskus in Rapper-Kluft. Ebenfalls viral gingen vermeintliche Aufnahmen von Explosionen im Pentagon, die laut CNN sogar amerikanische Aktienkurse kurz absacken ließen, oder falsche Videos des brennenden Los Angeles und von Opfern des Hurrikans Helene. Wie weit sich solche KI-Bilder tatsächlich verbreiten, lässt sich kaum beziffern. Verlässliche Daten fehlen. Einen ersten Anhaltspunkt liefert eine Studie von Forschern der Stanford University. Sie haben sich 125 Facebook-Seiten angeschaut, die KI-Inhalte enthielten. Sie erreichten Hunderte Millionen Nutzer, schreiben die Forscher. Die Reichweite ist der springende Punkt. Die Bilder zeigten wohlig dreinschauende Kinder mit Geburtstagstorten, Inneneinrichtungen, einen frühen „Shrimp Jesus“. Dahinter stand laut den Studienautoren weder Ideologe noch Propaganda oder Desinformation. Die Sache ist viel banaler: Die Inhalte sollen Klicks, Likes und Follower bringen. All das lässt sich in der Aufmerksamkeitsökonomie zu Geld machen. Plattformen wie Pinterest geraten aus dem Takt Das kann ganze Plattformen aus dem Takt bringen. Seit einiger Zeit klagen Nutzer, dass KI-Inhalte auf Pinterest – einem Onlinenetzwerk, bei dem es vor allem um visuelle Inspiration geht – überhandnehmen. Die Journalistin Bethan Staton brachte das Gefühl in der Financial Times auf den Punkt: Die KI-Bilder seien gleichzeitig beliebig und unerreichbar, somit das „Gegenteil von in­spirierend“. Droht diese Ernüchterung auch anderen Teilen des Internets? Die negative Wirkung ist wissenschaftlich erforscht. Tanja Messingschlager, Mitarbeiterin am Lehrstuhl Kommunikationspsychologie und Neue Medien der Universität Würzburg, hat 470 Personen KI-generierte Bilder gezeigt. Der Trick: Ein Teil dachte, Kunstwerke von Menschen zu sehen, der andere wusste, dass es KI-Werke waren. Diese zweite Gruppe schätzte die Bilder im Schnitt als geringwertiger ein. Warum? „KI fehlen die menschlichen Erlebnisse, die – wenn man es aus künstlerischer Perspektive sieht – wichtig für den Entstehungsprozess eines Bildes sind“, sagt Messingschlager. Zudem schätze der Betrachter die Mühe bei der Entstehung eines Bildes. Die ist bei mittels KI entstandenen Bildern kaum gegeben. „Das Bild ist innerhalb weniger Sekunden da“, sagt Messingschlager. Was wird diese Geringschätzung angesichts der Flut an KI-Bildern langfristig bewirken? Die Forscherin formuliert es positiv: „Erste Studien zeigen, dass die Wertschätzung für das steigt, von dem wir wissen, dass es menschengemacht ist.“ Generierte Bilder lassen sich kaum erkennen Eine Renaissance des Analogen? Dafür müsste man KI-generierte und echte Bilder unterscheiden können. Das ist beim Shrimp Jesus einfach, bei Videos, auf denen Kaninchen scheinbar simultan auf einem Trampolin hopsen, schon schwieriger, bei fotorealistischem Material beinahe unmöglich. Teilnehmer einer Studie vom King’s College in London, die die Echtheit von Bildern, Videos und Tonaufnahmen bewerten sollten, kamen auf eine Trefferquote von rund 50 Prozent. „So gut wie ein Münzwurf“, lautet der treffende Titel der Arbeit. Der Wirtschaftsinformatiker Malte Högemann von der Universität Osnabrück hat etwas genauer auf die Fähigkeiten bei der Erkennung von KI-Bildern geschaut. Die Teilnehmer seiner Studie, die in den Frontiers in Artificial Intelligence erschienen ist, sollten KI-Bilder von Fotos unterscheiden und ihre Entscheidung begründen. Im Schnitt erkannten sie 63,7 Prozent der KI-Bilder als solche. Bei dem besonders auf Fotorealismus ausgelegten KI-Modell „FLUX.1-dev“ lag die Trefferquote jedoch bei nur noch knapp 30 Prozent. Mehr noch: „Je sicherer die Teilnehmenden waren, desto falscher lagen sie“, sagt Högemann zu diesem Modell. Es ist also besonders gut darin, Menschen in die Irre zu führen. Warum auch echte Fotos unter Verdacht geraten Mit immer besserer Technik verändert sich auch die Art und Weise, wie man versucht, KI-Bilder zu entlarven. „Insgesamt erkennt man einen Wandel von klassischen Erkennungsheuristiken und Artefakten zu Intuition und Bauchgefühl“, erklärt der Studienautor. Das heißt: Während man früher noch auf Fehler im Bild wie falsche Schatten oder Spiegelungen achten konnte, verlagert sich das Urteil auf Eindrücke wie „zu perfekt“, „unnatürlich sauber“ und generelles Unbehagen, also vage Kategorien. Bei den echten Fotos taten sich die Teilnehmer sogar etwas schwerer, sie als solche zu erkennen. Högemanns Vermutung: „Wenn man darauf fixiert ist, auf Hinweise zu achten, und sieht Dinge, die gar nicht dort sind.“ Dieser Aspekt zeigt das Dilemma perfekt auf. Die schiere Masse an KI-generierten Inhalten führt dazu, dass jedes Bild verdächtig wirkt. Auch wenn dieses ständige Zweifeln angesichts der Technologie angebracht sein mag, ist es für eine Gesellschaft gefährlich. Eine mögliche Konsequenz daraus sind Phänomene wie die „Lügner-Dividende“: Wenn es kein Vertrauen gibt, können beispielsweise Politiker berechtigte Anschuldigungen als Falschinformation zurückweisen. Zudem droht die „Realitätsapathie“. Diesen Begriff hat Aviv Ovadya vom Berkman Klein Center in Harvard geprägt. Er beschreibt das Gleichgültigwerden gegenüber Wahrheit angesichts eines allgemeinen Vertrauensverlusts. „Realitätszersplitterung“ bezeichnet wiederum das Aufbrechen der gemeinsamen Realität in persönliche Wahrheitsräume: eine Gesellschaft, in der sich jeder in seine Vertrauenssilos zurückzieht und nur noch bestimmten Personen, bestimmten Blogs, bestimmten Podcasts glaubt. Die Ironie ist: Diese Theorien dienten ursprünglich dazu, die Folge von massiver Propaganda und Desinformation zu beschreiben. Jetzt scheint es, als könnten sie aufgrund des banalen Versuchs wahr werden, Aufmerksamkeit in sozialen Medien zu gewinnen. Negative Emotionen wirken – egal ob KI oder echt Was tun? Högemann fordert einen „soziotechnischen“ Ansatz. Onlineplattformen sollten KI-Inhalte beispielsweise besser kennzeichnen. Bisher basiert diese Markierung auf Freiwilligkeit der Nutzer und Computersystemen, die KI-Bilder automatisch erkennen. Doch beides ist lückenhaft. Daher sollte man zudem Menschen mit Schulungen und Trainings helfen. „Man würde sie erst mal dafür sensibilisieren, dass auf den Plattformen viele KI-Inhalte sind“, sagt Högemann. Dann könnte man versuchen, Blicke für die KI-Bilder zu schärfen, die sich noch mit bloßem Auge erkennen lassen. Würde das nicht genau das den Vertrauensverlust verstärken? „Die Entwicklung von generativer KI in diesem Kontext können wir nicht aufhalten, deshalb ist es notwendig, dass man kritisch auf Inhalte blickt“, sagt Högemann. Doch auch wenn man weiß, dass ein Bild KI-generiert ist, kann es Wirkung entfalten. Das haben die Neurowissenschaftler Julia Baum und Martin Maier von der Humboldt-Universität ermittelt. Sie haben die elektrische Aktivität des Gehirns von Testpersonen gemessen, die sich Fotos unterschiedlicher Gesichter ansahen. Einige Testpersonen dachten, sie sahen KI-Gesichter, andere dachten, es seien echte Menschen. In den Hirnströmen dieser Gruppen gab es Unterschiede – jedoch nur bei lächelnden Gesichtern. Dann nämlich lösten die vermeidlichen KI-Bilder geringere Wahrnehmungs- und Gefühlsreaktionen aus. Ein KI-Lächeln wirkte nicht so stark wie ein echtes. Anders bei negativen Emotionen. Auf Furcht, Trauer, Erschrecken reagierten die Gehirne der Testpersonen immer gleich, egal ob sie glaubten, KI-Gesichter oder Menschen zu sehen. Was bedeutet das angesichts der Flut von KI-Bildern? Maier ist vorsichtig: „Vielleicht ist es so, dass positive Botschaften an Wert verlieren, während die negativen mehr haften blieben. Man kann mit KI vielleicht leichter Angst verbreiten.“ Wäre die Markierung echter Fotos eine Lösung? Das Muster zeichnet sich bereits ab – und wird ausgenutzt: Als eine bekannte Politikerin der Republikaner das Bild eines Mädchens während des Hurrikans Helene postete, war klar, dass es KI-generiert ist. Egal, schrieb die Politikerin: „Es ist ein Symbol für das Trauma und den Schmerz, den die Menschen derzeit durchleben.“ Negatives verfängt. Das dürfte auch für die KI-Videos von Donald Trump gelten, in denen er schon mal Fäkalien auf Demonstranten regnen lässt. Eine KI-Kennzeichnung würde wahrscheinlich nicht gegen die negativen Emotion wirken, die die Inhalte transportieren sollen. Die KI-Flut schafft eine Welt, in der eine tatsächlich einstürzende Brücke erst beweisen muss, dass sie real ist – und ein erfundenes Mädchen aus einem Hurrikan echte politische Debatten beeinflusst. Vielleicht muss man in dieser Welt ganz neu denken. Wenn echte Fotos die Ausnahme sind – vielleicht sollte man sie dann markieren? Genau das, also eine Markierung authentischer Inhalte, fordern Experten und Forscher seit einiger Zeit. Erste technische Ansätze, bei denen man die Herkunft eines Bildes bis zur Kamera verfolgen kann, gibt es bereits. Diese Technologie würde uns zumindest dort die Frage „Ist das echt?“ ersparen, wo die Antwort noch zählt.