Kinder- und Jugendschutz: Wieso Altersgrenzen z. Hd. Social Media nicht reichen

Stand: 23.04.2026 • 12:41 Uhr

Altersgrenzen bei Social Media schützen Kinder und Jugendliche nicht ausreichend – sagen Experten. Sie empfehlen etwa kinderfreundliche Voreinstellungen, Smartphone‑Filter und klare Absprachen zwischen Eltern und Kindern.

Von Monika Haas, BR

Erkenntnisse aus Psychologie, Pädagogik und Informatik zeigen: Bloße Beschränkungen greifen zu kurz, um das Internet für Minderjährige sicherer zu machen. Statt einseitig auf Verbote zu setzen, fordert Digitalrechtsexperte Urs Gasser deshalb einen Ansatz, der ein kindgerechtes App-Design mit gesetzlicher Regulierung verbindet. „Wir brauchen Smart Design und Smart Regulation der Plattformen“, sagt er.

Verbote könnten digitale Kompetenzen verhindern

Gasser hat lange das Berkman Klein Center der US-Universität Harvard geleitet und forscht nun an der Technischen Universität München (TUM). Er sieht Regulierungen nur als einen kleinen Baustein für ein evidenzbasiertes Gesamtkonzept, das besseren Jugendschutz im digitalen Raum bewirken soll. Die Ergebnisse einer internationalen Arbeitsgruppe unter Leitung von Gasser hat das Wissenschaftsmagazin Science veröffentlicht.

Der Experte für Digitalpolitik warnt davor, aufgrund der Diskussion über eine neue EU-App zur Altersverifikation weit effektivere Schutzmaßnahmen zu vernachlässigen.

EU-App für Altersnachweis ist umstritten

Die EU entwickelt im Rahmen der Digitalstrategie eigentlich bereits eine App für ganz Europa: die European Digital Identity (EUDI) Wallet. Sie könnte technisch auch die für Altersverifikation notwendigen Funktionen übernehmen. Dennoch hat die EU dafür nun eine separate App angekündigt.

Diese Idee kritisieren Expertinnen und Experten: Statt eine EU-einheitliche Infrastruktur zu stärken, könnte diese Sonderlösung zusätzlichen Aufwand für Bürgerinnen und Bürger verursachen, aber auch für Anbieter von Online-Diensten. Verschiedene rechtliche Aspekte, wie etwa das Recht von Kindern und Jugendlichen auf Teilhabe in der digitalen Welt, mache Altersverifikationen zum Balanceakt, so die Einordnung der Bundesbeauftragten für Datenschutz und Informationsfreiheit.

Breite Kritik am Fokus auf Altersbegrenzung

Der Digital Services Act der EU verpflichtet Plattformen, für Sicherheit, Privatheit und Jugendschutz zu sorgen. Doch die Altersüberprüfung funktioniert bislang nur lückenhaft. Die jetzt angekündigte EU-App befindet sich laut EU noch im experimentellen Stadium.

Werden Altersnachweise auf einem Gerät gespeichert, sei eine Beschränkung ohnehin leicht zu umgehen, etwa wenn Eltern ihr Smartphone an die Kinder weitergeben, erklärt Gasser von der TUM. „Wir wissen aus den vergangenen 20 Jahren Forschung, dass Kinder und Jugendliche sehr gut darin sind, Restriktionen und Verbote zu umgehen.“

Anja Lehmann vom Hasso-Plattner-Institut der Universität Potsdam betont, selbst die datenschutzfreundlichste Lösung sei nicht frei von Nebenwirkungen, und verweist dazu auf einen offenen Brief von mehr als 400 Sicherheitsforschenden. In diesem wird gewarnt, dass gerade zur Altersbestimmung der Nutzenden häufig insbesondere sehr sensible private Daten abgefragt werden.

Es könnte für Kinder und Jugendliche sogar noch gefährlicher werden, wenn sie aufgrund eines Verbots statt auf TikTok und Co. in völlig unregulierten Bereichen des Internets oder unter falschem Alter chatten. Das zeigten auch erste Erfahrungen in Australien.

Wirkungsvolle Maßnahmen für besseren Jugendschutz

Gasser plädiert deshalb in seiner aktuellen Studie für einen konstruktiven Ansatz, der Minderjährige individuell schützt, aber auch befähigt die Angebote auf den Plattformen zu nutzen.

Es brauche intelligente Hilfsangebote, etwa bei Cyber-Grooming, und Meldemöglichkeiten für verstörende Inhalte, etwa spezielle Chatbots, mit zeitnahen Reaktionen durch die Meldestellen. Die Technologie für flexiblere Sicherheitsmaßnahmen sei bereits vorhanden. So könnten Plattform-Betreiber ihre Algorithmen so programmieren, dass Jugendliche nicht mehr in Endlosschleife bestimmte Inhalte sehen – etwa extreme Fitness- oder Schönheitsideale, deren Dauerkonsum ihr Risiko für ein negatives Selbstbild, Depression oder Magersucht erhöhen kann.

Zum Ausschalten bei langer oder nächtlicher Nutzung könnten Warnbanner in Apps motivieren, die sich nicht mehr wegklicken lassen, oder die ständige Wiederholung bereits bekannter Inhalte. Es brauche mehr Anreize für die Anbieter sozialer Medien, Apps und Algorithmen so zu verändern, dass ihr Design den Schutz und die sichere Teilhabemöglichkeit von Kindern und Jugendlichen in der digitalen Welt stärkt.

Auch KI könnte helfen. „Bestimmte Anbieter von Smartphones verpixeln zunächst Bilder, die nackte Haut zeigen, und blockieren die volle Auflösung“, erklärt Gasser. So haben die jugendlichen Nutzerinnen und Nutzer die Möglichkeit sich selbst zu schützen, wenn ihnen ein unbekannter Absender ein Nacktbild schickt. Diese On-Device-Interventionen – also Maßnahmen direkt auf den Geräten – könnten künftig Gewaltvideos und Hassbotschaften blockieren, weil lokal installierbare KI-Programme immer kleiner werden. Sie könnten zu einer Art individueller Jugendschutz-KI beitragen, über deren Funktionen Eltern und Kinder gemeinsam entscheiden und die datengeschützt auf dem Handy läuft.

Das Ziel: Aufklärung und Mitwirkung fördern

Zentral sei es, Kinder und Jugendliche ernst zu nehmen sowie ihre Bedürfnisse, in der digitalen Welt eigene Erfahrungen zu sammeln. Gasser sieht hier großen Nachholbedarf, auch bei der Medienbildung. Gemeinsame Diskussionen mit den Eltern sorgten für das nötige Vertrauen, auch über schlechte Erfahrungen mit Apps zu sprechen und gemeinsam über die Nutzung von Apps zu entscheiden.

Source: tagesschau.de