FAZ 17.01.2026
10:08 Uhr

Gesichtserkennung mit KI: Wie Teenager Alterskontrollen im Netz austricksen


Alterskontrollen per KI sollen Jugendliche vor gefährlichen Inhalten im Netz schützen. Doch die Technologie lässt sich leicht austricksen – und schließt manche Menschen aus.

Gesichtserkennung mit KI: Wie Teenager Alterskontrollen im Netz austricksen

Im vergangenen Sommer half Sam Porter Bridges einigen britischen Jugendlichen wahrscheinlich dabei, Dinge im Internet zu sehen, die sie eigentlich nicht sehen durften. Sam ist die Hauptfigur aus dem Computerspiel „Death Strandings“. Damals war im Vereinigten Königreich gerade ein Gesetz in Kraft getreten, das Minderjährige vor Gewaltdarstellungen und Pornographie im Internet schützen sollte. Wer auf solche Inhalte zugreifen wollte, musste sein Alter belegen. Zumeist funktionierte das über Systeme, die das Alter anhand des Gesichts abschätzen. Natürlich waren die Entwickler dieser Systeme darauf eingestellt, dass die Jugendlichen versuchen würden, sie auszutricksen. Beispielsweise hätten diese einfach das Foto einer erwachsenen Person in die Kamera halten können. Also bauten die Entwickler „liveness checks“ als Sicherheitsmechanismen ein. Wer sein Alter prüfen lassen wollte, musste sich also per Smartphone aufnehmen und Anweisungen folgen wie: „Öffne Deinen Mund!“ Diese Übung soll sicherstellen, dass es sich um einen echten Menschen handelt und nicht um ein Foto. Gesichtskontrollen lassen sich von Hundeschnauzen verwirren Nun ist es so, dass man bei „Death Strandings“ die Mimik von Sam – der übrigens recht erwachsen aussieht – kontrollieren kann. Wie Tom Warren von Technologieportal The Verge damals selbst ausprobierte, reichte es, die Handykamera auf den Bildschirm zu halten und Sam die Anweisungen der Alterskontrolle befolgen zu lassen. Forscherinnen aus Glasgow hatten bereits im Jahr 2021 eine noch peinlichere Lücke bei ähnlichen Systemen entdeckt: Damals reichte es aus, das Gesicht eines Hundes in die Kamera zu halten – schon dachte das System, man sei ein 42 bis 45 Jahre alter Mensch. Diese Geschichten mögen witzig erscheinen, aber hinter ihnen verbirgt sich ein größeres Problem. Auf Künstlicher Intelligenz basierende Systeme, die das Alter anhand des Gesichts abschätzen, werden inzwischen massenhaft genutzt, um Alterskontrollen im Internet durchzuführen. Dabei hat die Technologie Schwächen, die sie nicht nur anfällig für Angriffe mit ­Videospielcharakteren und Hunden machen, sondern auch das Risiko bergen, bestimmte Bevölkerungsgruppen zu diskriminieren. Um diese Schwächen zu verstehen, sollte man wissen, wie die KI-Systeme funktionieren. Die besten Systeme schätzen das Alter auf 3,1 Jahre genau Am Anfang stehen die Trainingsdaten, große Mengen – üblicherweise mehrere Millionen – an Fotos von Gesichtern, deren Alter bekannt ist. Die KI zerlegt sie in einzelne Pixel und trainiert, daraus auf das Alter zu schließen. Dabei lernt sie zunächst, Muster in den Daten zu finden. Das können etwa Kanten sein, die das Kinn oder die Augenlider umranden. Worauf die KI letztlich achtet – ob Krähen­füße, die Form der Lippen oder Bartwuchs –, lässt sich nicht sagen. Man kann lediglich testen, wie gut die Systeme sind. Heutige Verfahren können laut dem amerikanischen „National Institute of Standards and Technology“ das Alter einer Person auf 3,1 Jahre genau schätzen. Vor zehn Jahren lag die Präzision noch bei 4,3 Jahren. Die Technologie ist also besser geworden, sie hat sich aber nicht fundamental verändert. Die KI sucht nach wie vor bloß nach Mustern in den Bildern. Sie hat aber kein Verständnis davon, was ein menschliches Gesicht wirklich ist. Daher lässt sie sich eben von Computerspielen oder auch Hunden täuschen. Gerade bei den relevanten Altersgruppen ungenau Auch ohne Täuschung zeigen die Systeme Schwächen. Vor dem Social-Media-Verbot für Jugendliche unter 16 Jahren in Australien gab es einen großen Test der Technologie. 13 Systeme wurden mit über 28.000 Bildern untersucht. Die besten schätzten das Alter der Testpersonen auf 1,3 Jahre genau ein. Bei der Frage, ob die Testperson über 18 Jahre alt ist, lagen sie bei jenen über 19 Jahren in 92 Prozent der Tests richtig. Grund genug, die Technologie als geeignet für Alterskontrollen zu halten. Doch die Details des Testlaufs sprechen eine andere Sprache. So zeigt sich, dass die Systeme gerade bei der für das Verbot relevanten Altersgrenze von 16 Jahren oft versagten. Von den 13 Jahre alten Testpersonen wurden fälschlicherweise 38 Prozent als mindestens 16 Jahre alt eingestuft. Bei den 14-Jährigen waren es sogar mehr als die Hälfte. Das könnte daran liegen, dass in den Trainingsdaten weniger Kinder auftauchten und die Systeme sie daher nicht so gut einschätzten konnten – oder eben daran, dass Kinder sich unterschiedlich schnell entwickeln. Bei verschiedenen Ethnien zeigten die automatischen Alterskontrollen ebenfalls unterschiedlich gute Ergebnisse. Während sie bei Gesichtern aus Europa noch gut funktionierten, sank die Trefferquote bei Testpersonen aus Südostasien und Angehörigen indigener Völker dramatisch. Auch hier könnten die Trainingsdaten ein Grund sein. Womöglich tauchten dort bestimmte Ethnien häufiger auf als andere. Das Problem ließe sich mit besseren Datensätzen möglicherweise in den Griff bekommen. Klar ist aber: So, wie die Technologie heute funktioniert, wird sie bestimme Gruppen zu Unrecht aus Teilen des Internets ausschließen, falls sie flächendeckend zum Einsatz kommen sollte.