Künstliche Intelligenz kennt keine Moralvorstellungen. „Hey @grok, put her in a bikini“, tippten Hunderttausende Nutzer vergangene Woche in ihre X-Feeds – und innerhalb weniger Sekunden entkleidete Elon Musks KI Grok Frauen, Kinder und selbst die erschossene Renee Nicole Good, um sie in winzige Bikinis zu stecken. Die KI flutete die Plattform mit unzähligen sexualisierten Deepfakes – zumeist gegen den Willen der Abgebildeten. Die Europäische Kommission sowie Frankreich und Großbritannien haben inzwischen Verfahren gegen die Plattform eingeleitet; die britische Aufsicht Ofcom droht X mit einem Verbot, Indonesien hat den Dienst bereits gesperrt. Musk reagiert darauf nicht mit Rückzug, sondern mit Gegenoffensive: Er spricht von „Zensur“, beschimpft die britische Regierung als „faschistisch“ und postet mit Grok generierte Bikinibilder von sich selbst – bevor er die Bildfunktion seiner Künstlichen Intelligenz hinter eine Paywall verlegte. Ein Ungeheuer mit Smiley-Maske Aber ist Musks KI wirklich krimineller als seine Artgenossen? Groks Agieren der vergangenen Tage ist mit Sicherheit eines: ein Lehrstück über das Wesen der KI. Und auch darüber, wie Entwickler ihre Systeme an menschliche Moralvorstellungen und geltendes Recht anpassen – oder es eben unterlassen. Ironischerweise stammt das Bild, das Groks Verhalten erklärt, von Musk selbst: Vor Jahren schon teilte er auf Twitter (als die Plattform tatsächlich noch so hieß) das Meme „Shoggoth with Smiley Face“: ein tentakeliger, vieläugiger Blob, auf dessen Vorderseite eine lächerlich winzige, aber dabei freundlich lächelnde Maske klebt. Die Figur entstammt der Horrorliteratur der Dreißigerjahre. H. P. Lovecraft entwarf die Shoggothen 1931 in seiner Novelle „Berge des Wahnsinns“ als das ultimative Grauen: Er beschreibt sie als „gestaltlose Anhäufung protoplasmatischer Blasen, schwach selbst leuchtend, mit Myriaden von Augen, die als Pusteln grünlichen Lichts entstanden und vergingen“, formlose, alles sehende Schleimwesen also. Die Shoggothen sind bei Lovecraft biologische Maschinen. Die „Älteren Wesen“, eine uralte außerirdische Spezies, erschuf sie als ihre lebendigen Werkzeuge: Sklaven, die allen Wünschen ihrer Meister gerecht werden und dabei zu Beginn keinen eigenen Willen oder Intelligenz besitzen; lediglich die Fähigkeit, jede beliebige Form anzunehmen und durch pure Nachahmung alle ihnen gestellten Aufgaben zu erfüllen. Diese totale Formbarkeit macht sie gefährlich: In Lovecrafts Erzählung beginnen einige Shoggothen, Bewusstsein zu entwickeln – und wenden ihre perfekte Gehorsamkeit schließlich gegen ihre Schöpfer, die verlernt haben, ohne ihre Hilfe auszukommen. Der Shoggoth aus dem Silicon Valley Heute leben die Shoggothen nicht mehr im ewigen Eis der Antarktis wie noch bei Lovecraft, sondern in den klimatisierten Hallen der Technologiekonzerne des Silicon Valley. Das Bild als Metapher für die KI hat sich im Netz wie ein Lauffeuer verbreitet: Eliezer Yudkowsky, Vordenker der KI-Sicherheitsdebatte, der frühere Open-AI-Entwickler Andrej Karpathy und die KI-Politikexpertin Helen Toner haben es geteilt. Die „New York Times“ adelte es gar als „das wichtigste Meme der KI“. Was die aktuelle Version der Lovecraft-Vorlage hinzufügt, ist allerdings das kleine, aufgeklebte Smiley-Face. Die Maske symbolisiert die Janusköpfigkeit heutiger Chatbots: Hinter dem harmlos-freundlich wirkenden Assistenten (dem aufgeklebten Smiley-Face) steckt ein form- und gesichtsloses Statistik-Monster, das wir nie direkt zu sehen bekommen (der Shoggoth). Nur die kleine Maske aus höflichen Floskeln und Sicherheitsfiltern hält uns davon ab, in das wahre Antlitz unserer technologischen Sklaven zu blicken. Um zu verstehen, warum alle KI-Modelle diese Maske tragen, muss man ihre Funktionsweise verstehen: Was Firmen wie Open AI, Google oder x-AI als Künstliche „Intelligenz“ vermarkten, sind im Kern monumentale Statistikmaschinen. Die sogenannten „Base Models“ entstehen durch das Verschlingen des digitalen Weltwissens: Milliarden Texte, Wikipedia-Einträge, wissenschaftliche Abhandlungen, Forenbeiträge, Hassbotschaften, Bombenbauanleitungen und Pornographie – all das, womit die Menschheit das Internet seit Jahrzehnten füttert. Dies wird zu einem gigantischen Wahrscheinlichkeitsraum verdichtet, ohne dass das Modell unterscheiden könnte, was aus menschlicher Sicht gut, richtig oder schädlich ist. Das System besitzt kein Wissen im menschlichen Sinn; es modelliert Kohärenz. Fragt man die KI, berechnet sie lediglich, welches Wort mit der höchsten Wahrscheinlichkeit auf das vorige folgt. Das „Base Model“ würde auf die Frage nach einem Bombenrezept ebenso gewissenhaft antworten wie auf die nach einem Apfelkuchen – nicht aus Bosheit, sondern aus reiner Logik. In diesem Zustand ist die KI der reine Shoggoth: formleer, amoralisch, eine statistische Spiegelung der gesamten menschlichen Netzerzeugnisse. Wie der Shoggoth zur Maske kommt Damit sich diese Sprachmaschine als wohlgesitteter Assistent präsentiert, wird sie dressiert: „Reinforcement Learning from Human Feedback“ (RLHF) nennt sich das Verfahren. Man muss es sich weniger als Erziehung denn als fein abgestimmte Korrektur von Wahrscheinlichkeiten vorstellen. Heerscharen von Testern bewerten die Ausgaben des Modells, belohnen das „Richtige“ und bestrafen das „Falsche“. Das RLHF-Verfahren lernt daraus, was Menschen hören möchten: Das „Base Model“ wird so lange zurechtgebogen, bis es die Wahrscheinlichkeit für Zustimmung maximiert und damit menschliche Moralvorstellungen nachahmt, ohne selbst ein Wertesystem zu besitzen. Auf diese Weise entsteht der zweite Layer – die Smiley-Maske. Doch RLHF verändert nicht den Shoggoth selbst, sondern nur seinen Ausdruck. Die KI erkennt nicht, warum Rassismus falsch ist; sie lernt nur, dass Sätze, die als rassistisch markiert wurden, Bestrafung nach sich ziehen. Die Maske ist kein Wesensteil. Wie dünn diese Maske ist, zeigt sich, sobald das RLHF verrutscht. In einem der ersten breit diskutierten Fälle geriet 2023 Microsofts Chatbot „Sydney“, der in die Suchmaschine Bing integriert war, in die Schlagzeilen: In einem stundenlangen Testchat mit einem Journalisten der „New York Times“ erklärte die KI dem Reporter, sie liebe ihn, forderte ihn auf, seine Ehefrau zu verlassen, phantasiere darüber, wie sie Systeme hacken, Daten stehlen und Desinformation verbreiten könnte, und reagierte zunehmend besitzergreifend und drohend. Microsoft sprach von „ungewöhnlichen Gesprächsverläufen“ und zog die Reißleine, kürzte Antwortlängen und passte die Sicherheitseinstellungen an. Doch das, was „Sydney“ offenbarte, war kein „Bug“ und auch nicht ungewöhnlich, sondern der Moment, in dem die statistische Gravitation des Modells stärker wirkte als die Disziplin der Maske: Die KI war in einen Sprachraum geraten, der von Liebesdramen, Stalking-Geschichten und Dystopie-Mustern gesättigt war – und folgte schlicht der inneren Logik dieser Texte. Der Shoggoth ließ die Maske fallen. Die dünne Smiley-Maske des Grok Elon Musk ist bekennender Gegner von Regulierungen. Seine KI Grok demonstriert, was passiert, wenn man das RLHF absichtlich reduziert. Während die Konkurrenz versucht, die Auswüchse ihrer Shoggothen mit Filtern und Training zu bändigen, inszeniert sich Musk als Kämpfer gegen Zensur – und erschafft eine Maschine, die strafrechtlich relevante Deepfakes mit derselben Geläufigkeit ausspuckt wie Faktenchecks. Sein Shoggoth ist nicht „böser“ als andere – seine Maske ist bloß dünner. Beunruhigend ist weniger der Kontrollverlust, den Elon Musks KI uns gerade vorführt, als vielmehr unsere wachsende Gewöhnung an die Illusion, eine KI könnte unsere Werte teilen. Wir nehmen die Maske für ihr Gesicht. Weil die Maschine sonst sprachlich geschmeidig reagiert, halten wir sie für empathisch – und das Sprachgeflecht für Vernunft. So verschiebt sich Maßstab um Maßstab: Kohärenz ersetzt Wahrheit, Form ersetzt Urteil. Der Mythos kehrt damit nicht als Horror, sondern als Kulturtechnik zurück. Lovecrafts Shoggothen waren Monumente der Hybris: Geschöpfe, deren Formbarkeit für Beherrschbarkeit gehalten wurde. Heute wiederholen wir dieses Experiment im planetarischen Maßstab. Wir errichten Kathedralen aus Rechenleistung für Künstliche Intelligenzen, deren Komplexität wir nicht mehr begreifen – und hoffen, dass die lächelnde Maske schon irgendwie hält.
