|
06.03.2026
11:47 Uhr
|
Jugendliche vor Social-Media-Gefahren zu schützen, ist richtig. Doch sie auszusperren, ist Symbolpolitik. Europa muss endlich spürbare Plattformregulierung durchsetzen.

Die Forderung nach einem Social-Media-Verbot für Kinder und Jugendliche bis zum Alter von 16 Jahren klingt erst einmal nach gesundem Menschenverstand. Wer würde nicht zustimmen, wenn es um Schutz vor Cybermobbing, sexualisierten Inhalten oder exzessiver Nutzung geht? Jedoch werden soziale Medien immer mehr zu zentralen Orten des sozialen, gesellschaftlichen und politischen Lebens. Ein pauschales Verbot für Kinder und Jugendliche unter 16 Jahren alleine wäre zwar eine bequeme Lösung, könnte sich jedoch als wenig effizient und schwer umsetzbar erweisen und ist zudem nicht mit den Teilhaberechten Jugendlicher vereinbar . Die Risiken der Nutzung sozialer Medien sind gut belegt . Die Forschung beschreibt, wie "unregulierte und schädliche" soziale Medien Teil eines Bündels von Belastungen für die psychische Gesundheit junger Menschen sein können. Ein Experiment zeigt beispielsweise , dass eine reduzierte Nutzung bei jungen Erwachsenen Einsamkeit und depressive Symptome teilweise deutlich senkt. Die Verantwortung liegt bei den Plattformen Wer daraus jedoch den Schluss zieht, man müsse den Zugang zu sozialen Medien pauschal bis zum Alter von 16 Jahren sperren, macht es sich zu einfach. Digitale Teilhabe mit Austausch- und Vernetzungsmöglichkeiten ist an sich nicht das Problem. Vielmehr sind es die Geschäftsmodelle der erfolgreichen Plattformen, die Aufmerksamkeit in Gewinn verwandeln – und dafür Reiz, Empörung, Dauerscrollen und soziale Vergleichsdynamiken systematisch verstärken. Es sind die Plattformen, die zu wenig Aufwand in die Entfernung schädlicher Inhalte stecken und die Verbreitung solcher Beiträge durch ihre Algorithmen oft noch fördern. Zu diesem Schluss kommt auch eine von der Leopoldina eingesetzte Kommission von Expertinnen und Experten aus der Wissenschaft : Für Kinder unter 13 Jahren werden soziale Medien als grundsätzlich ungeeignet eingestuft. Für 13- bis 17-Jährige werden altersgemäße Einschränkungen von Plattformfunktionen vorgeschlagen. Dadurch werden sie einerseits vor Risiken geschützt, erhalten aber auch die Chance, einen reflektierten und selbstbestimmten Umgang damit zu entwickeln. Auch das Europäische Parlament fordert nicht nur Altersgrenzen , sondern auch Eingriffe in "addictive practices" und Engagement-Algorithmen. Wenn Politik jetzt vor allem über Verbote für Kinder und Jugendliche spricht, wirkt das wie Symbolpolitik: laut, aber am Kern vorbei. Besser wäre, die Anbieter in die Pflicht zu nehmen – mit klarer Haftung, Sicherheit von Anfang an und Transparenz darüber, warum bestimmte Beiträge empfohlen werden und andere nicht. Auch muss es echte Auditrechte für Aufsichtsbehörden und Sanktionen bei systematischem Versagen geben. Instrumente existieren bereits: in Europa etwa DSA und DMA (seit 2022). Der DSA verpflichtet Plattformen zu mehr Sicherheit und Transparenz, der DMA begrenzt die Marktmacht großer Gatekeeper zugunsten fairen Wettbewerbs. Konkret hieße das: Plattformen müssten Risiken nicht nur verwalten, sondern spürbar senken; manipulative Wachstumstricks bei Minderjährigen wären tabu. Der Standard wäre ein chronologischer Feed, Empfehlungen gäbe es nur auf Wunsch. Das Alter würde datensparsam und verlässlich geprüft – und unabhängige Forschung sowie Aufsicht bekämen Zugriff auf Daten, damit Regulierung auf Wirkung statt auf Bauchgefühl basiert.