#alterskontrollen — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #alterskontrollen, aggregated by home.social.
-
"Es ist meine Überzeugung": #Von_der_Leyen kommt eigenen #Fachleuten zuvor und will #SocialMediaVerbot - #netzpolitik.org
Bevor sich ihre #Jugendschutz-Expert*innen dazu äußern können, fordert Ursula von der Leyen ein Social-Media-Verbot für #Minderjährige plus #Alterskontrollen. Unsere Analyse zeigt: Die #Kommissionspräsidentin folgt dem #Playbook der #australischen #Regierung.
-
"Es ist meine Überzeugung": #Von_der_Leyen kommt eigenen #Fachleuten zuvor und will #SocialMediaVerbot - #netzpolitik.org
Bevor sich ihre #Jugendschutz-Expert*innen dazu äußern können, fordert Ursula von der Leyen ein Social-Media-Verbot für #Minderjährige plus #Alterskontrollen. Unsere Analyse zeigt: Die #Kommissionspräsidentin folgt dem #Playbook der #australischen #Regierung.
-
"Es ist meine Überzeugung": #Von_der_Leyen kommt eigenen #Fachleuten zuvor und will #SocialMediaVerbot - #netzpolitik.org
Bevor sich ihre #Jugendschutz-Expert*innen dazu äußern können, fordert Ursula von der Leyen ein Social-Media-Verbot für #Minderjährige plus #Alterskontrollen. Unsere Analyse zeigt: Die #Kommissionspräsidentin folgt dem #Playbook der #australischen #Regierung.
-
"Es ist meine Überzeugung": #Von_der_Leyen kommt eigenen #Fachleuten zuvor und will #SocialMediaVerbot - #netzpolitik.org
Bevor sich ihre #Jugendschutz-Expert*innen dazu äußern können, fordert Ursula von der Leyen ein Social-Media-Verbot für #Minderjährige plus #Alterskontrollen. Unsere Analyse zeigt: Die #Kommissionspräsidentin folgt dem #Playbook der #australischen #Regierung.
-
"Es ist meine Überzeugung": #Von_der_Leyen kommt eigenen #Fachleuten zuvor und will #SocialMediaVerbot - #netzpolitik.org
Bevor sich ihre #Jugendschutz-Expert*innen dazu äußern können, fordert Ursula von der Leyen ein Social-Media-Verbot für #Minderjährige plus #Alterskontrollen. Unsere Analyse zeigt: Die #Kommissionspräsidentin folgt dem #Playbook der #australischen #Regierung.
-
📬 Europäisches Parlament: Wissenschaftlicher Dienst fordert Identitätsnachweis bei VPN-Nutzung
#Datenschutz #Internet #Netzpolitik #Alterskontrollen #Altersverifikation #DoubleBlindModell https://sc.tarnkappe.info/6735f1 -
📬 Europäisches Parlament: Wissenschaftlicher Dienst fordert Identitätsnachweis bei VPN-Nutzung
#Datenschutz #Internet #Netzpolitik #Alterskontrollen #Altersverifikation #DoubleBlindModell https://sc.tarnkappe.info/6735f1 -
📬 Europäisches Parlament: Wissenschaftlicher Dienst fordert Identitätsnachweis bei VPN-Nutzung
#Datenschutz #Internet #Netzpolitik #Alterskontrollen #Altersverifikation #DoubleBlindModell https://sc.tarnkappe.info/6735f1 -
📬 Europäisches Parlament: Wissenschaftlicher Dienst fordert Identitätsnachweis bei VPN-Nutzung
#Datenschutz #Internet #Netzpolitik #Alterskontrollen #Altersverifikation #DoubleBlindModell https://sc.tarnkappe.info/6735f1 -
📬 Europäisches Parlament: Wissenschaftlicher Dienst fordert Identitätsnachweis bei VPN-Nutzung
#Datenschutz #Internet #Netzpolitik #Alterskontrollen #Altersverifikation #DoubleBlindModell https://sc.tarnkappe.info/6735f1 -
Beim @ZDF Mitreden ist mir heute der Platz ausgegangen...
#ZDFMitreden #SocialMediaVerbot #Alterskontrollen
1/x
-
Meta will uns bis auf die Knochen überwachen
Auf der Suche nach Minderjährigen will Meta Nutzer*innen auf Facebook und Instagram umfassend durchleuchten. Der Konzern will sogar die Knochenstruktur von Menschen auf Fotos auswerten. Wie gefährlich ist das? Die Analyse.
Instagram und Facebook wollen ihre Nutzer*innen künftig noch genauer unter die Lupe nehmen. Eine als KI bezeichnete Software soll unter anderem Texte in Posts und Kurzbios kontrollieren und Objekte in Fotos und Videos scannen. Die Software soll sogar die Körpergröße und Knochenstruktur abgebildeter Personen auswerten. Das Ziel dieser Art von Rasterfahndung sind Minderjährige.
Schätzt die Software eine Person für verdächtig jung ein, soll sie ihr Alter nachweisen. Junge Menschen unter 18 Jahre sollen die Plattformen nur im Jugendschutz-Modusnutzen; Kinder unter 13 Jahre dürfen keinen Account haben.
Wer also künftig auf Instagram Fotos vom Kindergeburtstag postet oder über Schulnoten spricht, könnte Probleme bekommen. Die Software könnte das als Hinweis werten, dass man noch nicht erwachsen ist. Diese beiden Beispiele kommen aus der Pressemitteilung von Meta.
Die neue KI-Überwachung startet Instagram demnach jetzt in der EU und in Brasilien. Zuvor lief sie bereits in den USA, Australien, Kanada und dem Vereinigten Königreich. Auf Facebook rollt Meta die Überwachung zunächst in den USA aus; im Juni soll sie für EU und Vereinigtes Königreich folgen.
Hier kommen die fünf wichtigsten Fragen und Antworten zu Metas neuen Alterskontrollen.
1. Bergen Metas Alterskontrollen Gefahren?
Ein Fachbegriff für die von Meta geplanten Alterskontrollen ist Inferenz, einfacher ausgedrückt: schlussfolgern. Inferenz-Methoden kombinieren mehrere Anhaltspunkte, um das Alter einer Person zu schätzen. Dabei können Dinge schiefgehen – besonders wenn ein Tech-Konzern sogar Fotos und Videos mit sogenannter KI durchsuchen will.
- Datenmaximierung: In der EU verankert die Datenschutz-Grundverordnung (DSGVO) den Grundsatz der Datenminimierung. Das heißt im Fall von Meta: Der Konzern soll nicht mehr Daten sammeln und verarbeiten als nötig. Auf Datenminimierung pocht auch die EU-Kommission in ihren Leitlinien, die beschreiben, wie Online-Dienste Minderjährige schützen sollen; Grundlage is das Gesetzes über digitale Dienste (DSA). Passend dazu fordern in der aktuellen Debatte um Altersgrenzen und Social-Media-Verbote Politiker*innen durch die Bank weg, Alterskontrollen sollen datensparsamein. Was Meta plant, ist jedoch das Gegenteil: Der Konzern will Daten nicht minimieren, sondern maximieren. Er will „mit KI-Technologie komplette Profile analysieren“.
- Kontrollverlust: Meta listet nicht vollständig auf, was die Software auf der Suche nach Minderjährigen alles einbezieht. Hinweise auf Geburtstage oder Schulnoten sind nur Beispiele; ebenso die Knochenstruktur von Menschen in Fotos und Videos. Nutzer*innen können deshalb nicht wissen, welche der Dinge, die sie posten, möglicherweise problematisch sein könnten. Sie wissen auch nicht, was genau mit den aus der Analyse gewonnenen Erkenntnissen passiert. Meta ist ein Datenschlucker; in der Vergangenheit hatte der Konzern mehrfach Datenschutz-Skandale. Die autoritäre US-Regierung hat potenziell Zugriff auf Daten von Meta-Nutzer*innen in der EU. Daraus folgt: Menschen auf Instagram und Facebook können kaum kontrollieren, was mit ihren Daten geschieht.
- Fehleinschätzungen: Inferenz-Methoden setzen auf Hinweise, aber Hinweise sind keine Fakten. Die Software könnte Menschen zu Unrecht als minderjährig einstufen. In der Folge müssten sie potenziell invasive Alterskontrollen überwinden; etwa auf Basis von Ausweisen oder biometrischen Gesichtsscans. Eventuell geraten manche Gruppen besonders oft in Verdacht, noch nicht erwachsen zu sein. Etwa Menschen, die sich aufgrund von Sprachschwierigkeiten nur sehr einfach ausdrücken. Oder eher kleine, schmale Menschen, deren Körper eine Software als jugendlich einstufen würde.
- Gesellschaftsbild: Die Maßnahme steht für einen radikalen gesellschaftlichen Wandel im Umgang mit Risiken. Auf der Suche nach Minderjährigen werden praktisch alle Nutzer*innen zu Verdächtigen – und all ihre Uploads zu potenziellem Beweismaterial. Die Überwachung wichtiger Schauplätze der digitalen Öffentlichkeit wird zunehmend lückenlos. Lange Zeit wurden KI-gestützte Überwachungsmethoden vor allem diskutiert, um schwere Verbrechen aufzuklären. Jetzt sollen sie sogar Kinder aufspüren. Es geht um junge Menschen, die neugierig sind und Regeln brechen, nicht um Schwerverbrecher*innen. Das normalisiert permanente Überwachung, selbst im Alltag.
- Function Creep ist die schrittweise Ausweitung einer Technologie über die ursprünglich beschriebenen Zwecke hinaus. Konkretes Beispiel: Schon jetzt nutzt die rassistische Trump-Regierung ein Arsenal an Überwachungstechnologie auf der Jagd nach Migrant*innen, um sie zu deportieren. Theoretisch könnte Meta die Systeme zur Suche nach Minderjährigen auch zur Suche nach Migrant*innen oder anderen vulnerablen Gruppen einsetzen. Entsprechende Gesetze könnten Konzerne dazu verpflichten, wenn die Infrastruktur erst einmal da ist.
2. Warum macht Meta das?
Meta reagiert mit den neuen Alterskontrollen wahrscheinlich auf die weltweite Debatte um Jugendschutz im Netz und Social-Media-Verbote. Jüngst hat etwa die EU-Kommission festgestellt, dass Meta nicht genug tut, um unter 13-Jährige von Facebook und Instagram fernzuhalten. Das ist ein möglicher Verstoß gegen den DSA; am Ende können Geldbußen drohen.
Die neuen Alterskontrollen könnte der Meta-Konzern als Argument dafür nutzen, dass er sich nun an die Regeln hält. Generell bieten Inferenz-Methoden mehrere Anreize für kommerzielle Online-Plattformen.
- Plattformen wollen ihre Nutzer*innen nicht abschrecken; immerhin ist deren Aufmerksamkeit die wichtigste Geldquelle. Während etwa Ausweiskontrollen für alle eine sichtbare Hürden sind, laufen Inferenz-Methoden zunächst unscheinbar im Hintergrund.
- Inferenz-Methoden basieren auf Wahrscheinlichkeiten. Plattformen können genau steuern, ab welcher Schwelle eines Verdachts die Software Alarm schlägt und von Nutzer*innen eine Altersverifikation verlangt. Auf diese Weise könnte ein Konzern stets optimieren, wie streng die Kontrollen ausfallen – auch mit Blick auf möglichst geringe finanzielle Einbußen.
- Die Systeme hinter Inferenz-Methoden können für Außenstehende komplex und intransparent sein. Kommerzielle Online-Plattformen sprechen gerne davon, dass sie ihre Systeme kontinuierlich verbessern. Das gibt ihnen viel Spielraum, etwaige Fehlerzu relativieren mit Verweis auf eine überholte Version der Systeme, etwa gegenüber Aufsichtsbehörden.
3. Ist das neu?
Inferenz-Methoden zur Alterskontrolle auf Online-Plattformen gibt es schon länger. Selbst Meta schreibt, dass sie ihre Systeme lediglich weiter „stärken“. Auch beispielsweise TikTok, ChatGPT, die Google-Suche oder YouTube suchen im Hintergrund nach Hinweisen darauf, ob Nutzer*innen zu jung sein könnten.
Neu ist allerdings die beschriebene Tiefe der Eingriffe – bis hin zur Analyse von Objekten und Knochenstruktur in Bildern und Videos. Wie zur Beschwichtigung betont Meta in der Pressemitteilung: „Das ist keine Gesichtserkennung.“ Die Software identifiziere keine Personen. Das kann technisch korrekt sein, macht die Eingriffe aber nicht unbedenklich.
4. Darf Meta das?
Vielleicht nicht. Die Datenschutzjuristin Kleanthi Sardeli verfolgt die Neuerungen bei Meta jedenfalls mit Skepsis. Sie arbeitet für die spendenfinanzierte NGO noyb („none of your business“) mit Sitz in Wien. Auf Anfrage von netzpolitik.org geht sie darauf ein, dass biometrische Daten wie Knochenstruktur und Körpergröße in der DSGVO einem strengeren Schutz unterliegen.
Knochenstruktur und Körpergröße können als Gesundheitsdaten angesehen werden, die denselben Schutz wie biometrische Daten genießen. Diese dürfen nur in Ausnahmefällen und auf Grundlage spezifischer Rechtsgrundlagen verarbeitet werden. Dazu gehört unter anderem die Einwilligung. In Metas Datenschutzerklärung wird dieser spezifische Einsatzbereich bisher nicht erwähnt, und als Rechtsgrundlage wird lediglich das berechtigte Interesse genannt – was für den Einsatz dieser neuen KI-Technologie eindeutig nicht ausreichend wäre.
Nähere Einschätzungen seien schwierig, schreibt Sardeli. Dafür seien Metas Informationen zu zurückhaltend. „Es wird auch nicht näher erläutert, wie Metas KI-Modelle auf die Alterserkennung trainiert werden – und ob Inhalte auf Meta-Plattformen verwendet werden, um diese KI-Funktionen weiter zu trainieren.“
Scharfe Kritik an Meta kommt von der deutschen Europa-Abgeordneten Alexandra Geese (Grüne), Stellvertretende Vorsitzende im Ausschuss für Binnenmarkt und Verbraucherschutz. Auf Anfrage von netzpolitik.org schreibt sie:
Was Meta hier plant, ist nichts weniger als der nächste Tabubruch: Die systematische Auswertung von Körpermerkmalen wie Knochenstruktur zur Altersbestimmung ist ein massiver Eingriff in hochsensible personenbezogene Daten.
Geese verweist auf eine Regel im DSA, die besagt: Online-Plattformen sind „nicht verpflichtet, zusätzliche personenbezogene Daten zu verarbeiten, um festzustellen, ob der Nutzer minderjährig ist“. Meta tut es dennoch. Statt mehr Schutz reagiere Meta mit mehr Überwachung. „Wer glaubt, man könne Kinderschutz mit biometrischer Massenanalyse erreichen, opfert Grundrechte auf dem Altar eines kaputten Geschäftsmodells.“
5. Was passiert als nächstes?
Die EU-Kommission dürfte sich für das laufende DSA-Verfahren genau anschauen, ob Meta mit den neuen Alterskontrollen die gesetzlichen Vorgaben erfüllt. Einerseits könnte Meta auf diese Weise tatsächlich mehr Minderjährige finden – andererseits könnte die Kommission die datenhungrigen Maßnahmen als unverhältnismäßig einstufen.
Parallel diskutieren Expert*innen gerade auf Deutschland- und EU-Ebene über Maßnahmen für Kinder- und Jugendschutz im Netz. Spitzenpolitiker*innen fordern vehement Social-Media-Verbote und (datensparsame) Alterskontrollen, während Fachleute aus unter anderem Medienpädagogik, Kinderschutz oder IT-Sicherheit vor beidem warnen. Im Sommer sollen die von EU-Kommission und Bundesregierung einberufenen Expert*innen ihre Empfehlungen vorlegen.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
Neue repräsentative Studie von Unicef Deutschland zu #Alterskontrollen / Social-Media-Verboten zeigt: junge Menschen zwischen 14-16 Jahre sehen die Plattformen in der Verantwortung, eine sicherere Umgebung zu schaffen. Insgesamt ergibt sich ein differenziertes Bild.
Seltsamerweise wird aus der PM:
"Soziale Medien: Jugendliche wollen Schutz statt Verbote"dann bei der SZ aber:
"Jugendliche unterstützen Social-Media-Verbot für Kinder" 🙃Vgl:
https://www.unicef.de/informieren/aktuelles/presse/-/soziale-medien-schutz-statt-verbote-/397042
und:
https://www.sueddeutsche.de/politik/jugendliche-deutschland-social-media-verbot-schutz-li.3478659 -
#Fachleute blenden Gefahren von #Alterskontrollen aus - #netzpolitik.org
Die #Familienministerin will ein #Social_Media_Verbot für #Minderjährige. Die von ihr berufenen Expert*innen eher nicht. Das zeigt deren erster Bericht – der jedoch eine gefährliche Leerstelle bei #Alterskontrollen lässt. Die Analyse.
Mit einem pauschalen Social-Media-Verbot ist #Kindern und #Jugendlichen eher nicht geholfen, dafür sind die Gefahren und Vorteile des Internets zu komplex...
-
Familienministerium: Fachleute blenden Gefahren von Alterskontrollen aus
Die Familienministerin will ein Social-Media-Verbot für Minderjährige. Die von ihr berufenen Expert*innen eher nicht. Das zeigt deren erster Bericht – der jedoch eine gefährliche Leerstelle bei Alterskontrollen lässt. Die Analyse.
Mit einem pauschalen Social-Media-Verbot ist Kindern und Jugendlichen eher nicht geholfen, dafür sind die Gefahren und Vorteile des Internets zu komplex. Das geht hervor aus dem mit Ungeduld erwarteten ersten Bericht der Unabhängigen Expertenkommission „Kinder- und Jugendschutz in der digitalen Welt“ vom 20. April. Im Vorfeld hatte Familienministerin Karin Prien (CDU) für ein Social-Media-Verbot geworben.
Auf 128 Seiten fächern die von ihr beauftragten Fachleute nun auf, was jungen Menschen im Netz passieren kann, und wo Hilfe ansetzen könnte. Dabei geht es nicht nur um Technologien und Plattform-Regulierung, sondern auch um die Rolle von Eltern, Schulen oder Ärzt*innen.
Die aktuelle Bestandsaufnahme soll lediglich „Handlungsfelder“ beschreiben. Konkrete Handlungsempfehlungen wollen die Expert*innen erst Ende Juni vorlegen. Erkennen lässt sich dennoch, in welche Richtung manche Empfehlungen gehen könnten. So legt der Bericht unter anderem strenge Alterskontrollen nahe.
Auf die Gefahren dieser Maßnahme für Privatsphäre, Datenschutz und Teilhabe aller Menschen im Netz gehen die Fachleute jedoch nicht ein. Diese Leerstelle fällt umso mehr ins Auge, weil im März mehr als 400 Forscher*innen aus 29 Ländern in einem offenen Briefeindringlich vor Alterskontrollen gewarnt hatten.
Unsere Analyse zeigt: Ohne kritische Auseinandersetzung mit den Technikfolgen von Alterskontrollen drohen die Expert*innen des Familienministeriums einen Kernaspekt der Debatte zu unterschätzen.
Die 5C-Typologie: Das droht jungen Menschen im Netz
Ausführlich beschreiben die Expert*innen zunächst, was jungen Menschen im Netz drohen kann. Dabei nutzen sie die sogenannte 5C-Typologie. Das Modell sortiert die Phänomene in fünf Gruppen, die mit dem Buchstaben C beginnen.
- Content: Hier geht es um für junge Menschen potenziell schädliche Inhalte wie Gewalt, Hass und Pornografie, aber auch Fehl- und Desinformation.
- Contact: Im persönlichen Kontakt können Erwachsene junge Menschen etwa in Abhängigkeitsverhältnisse locken und sexuell erpressen, sie stalken oder für extremistische Ideologien rekrutieren.
- Conduct: Diese Risiken drehen sich um Verhalten unter Minderjährigen; hier können junge Menschen sowohl Opfer als auch Täter*innen sein. Es geht unter anderem um Mobbing, sexuelle Belästigung oder Communitys, in denen sich junge Menschen dazu motivieren, sich selbst zu verletzen.
- Contract: Hier geht es um Risiken, die sich auf Verträge oder kommerzielle Ausnutzung beziehen. Junge Menschen können etwa durch manipulative Designs oder glücksspielähnliche Mechanismen dazu verleitet werden, ihr Taschengeld zu verprassen.
- Cross-cutting: Zuletzt soll eine Sammelkategorie namens Querschnitt weitere Risiken bündeln, etwa Verletzung der Privatsphäre, negative Folgen für die Gesundheit wie Bewegungsmangel oder auch Diskriminierung.
Wie schlecht geht es jungen Menschen also in der digitalen Welt? Der Bericht fasst hierzu viele Studien zusammen, das Gesamtbild ist ambivalent. Manches ist alarmierend – etwa, dass 4,7 Prozent der 10- bis 17-Jährigen in Deutschland „die Voraussetzungen für eine pathologische Nutzung sozialer Netzwerke“ erfüllen sollen. Andere Befunde wiederum machen Mut – etwa dass sich soziale Medien positiv auf die „Lebenszufriedenheit“ auswirken können.
Typisch Wissenschaft: Es kommt drauf an
Für die Debatte um ein Social-Media-Verbot liefert die Bestandsaufnahme zwei wichtige Differenzierungen. Erstens zeigt die 5C-Typologie eindrücklich: Digitale Gefahren für junge Menschen lassen sich nicht auf soziale Medien reduzieren. Sie umfassen unter anderem auch Messenger (etwa beim Mobbing), Websites (etwa bei Gewaltdarstellungen) oder die Gaming-Welt (etwa bei manipulativen Designs). Ein Zuschnitt allein auf soziale Medien dürfte den Punkt verfehlen.
Zweitens zeigen die Schilderungen zum Forschungsstand: Digitale Gefahren für junge Menschen lassen sich nicht nur am Alter oder der Bildschirmzeit festmachen. „Aus der bisherigen Forschung lässt sich ableiten, dass digitale Risiken und Belastungen nicht für alle Jugendlichen gleichermaßen auftreten, sondern nach Geschlecht, Alter, und soziodemografischem Kontext variieren können“, schreiben die Forschenden.
Es sei „entscheidend, nicht nur die Nutzungsdauer zu betrachten, sondern auch typische Nutzungsweisen sowie die Inhalte, denen Jugendliche ausgesetzt sind.“ Mehrere Studien würden betonen, „dass Auswirkungen digitaler Technologien weder einheitlich negativ noch einheitlich positiv sind, sondern die Wirkungen variieren – je nach Persönlichkeit, Nutzungsform, Plattform, Zeitverlauf und Lebenslage.“
Herunterdampfen lässt sich das auf die Formel: Es kommt drauf an.
Als anschauliches Beispiel nennen die Expert*innen junge Menschen, die Depressionen oder Angststörungen haben. Für sie kann etwa der soziale Vergleich durch Likes besonders belastend sein. Ein anderes Beispiel sind junge Menschen, die aufgrund emotionaler oder sexueller Misshandlung traumatisiert sind. Für sie wiegen Phänomene wie Mobbing oder nicht-einvernehmliche sexualisierte Kontaktaufnahme schwerer.
Zugleich halten die Expert*innen fest, wie wichtig die digitale Welt gerade für vulnerable junge Menschen sein kann:
(Digitale) Verbundenheit hat insbesondere für Jugendliche in isolierten Lebenssituationen einen hohen Stellenwert. Eine besonders konsistente Erkenntnis ist, dass marginalisierte Jugendliche überdurchschnittlich stark von Social Media profitieren. Dies betrifft queere Jugendliche, ethnische oder religiöse Minderheiten sowie Menschen mit Behinderungen oder mit chronischen Erkrankungen.
Für diese Gruppen und insbesondere für Gruppenangehörige aus ländlichen Regionen sind digitale Räume häufig die einzigen Orte, an denen sie akzeptierende Gemeinschaften finden, ihre Identität ausdrücken können und verlässliche Peer-Unterstützung erfahren. Plattformen werden damit zu einem niedrigschwelligen Zugangspunkt zu emotionaler Hilfe und stabilisierenden Beziehungserfahrungen.
Mit Blick auf die Rechtslage schlussfolgern die Expert*innen, es bedürfe „einer besonderen Begründung pauschaler Nutzungsverbote, die sich undifferenziert auf ganze Altersgruppen von Nutzenden erstrecken“. Kurzum: Der Bericht ist ein Dämpfer für alle, die sich Rückenwind für ein Social-Media-Verbot erhofft hatten.
Zumindest in ihrer Reaktion auf den Zwischenbericht hat Familienministerin Prien nicht erneut auf ein Social-Media-Verbot gepocht, sondern sich differenziert und zurückhaltend geäußert: „Es wird darum gehen müssen, bestehende rechtliche Instrumente konsequent durchzusetzen und diese durch einen breiten Instrumentenkasten auf verschiedenen Ebenen zu ergänzen.“ Die Ministerin erwarte nun „mit Spannung die konkreten Handlungsempfehlungen“.
Von Eltern bis Ärzt*innen: Diese Menschen sollen Kindern helfen
Aktuell dreht sich die öffentliche Debatte um Jugendschutz im Netz vor allem um Regulierung und Technologien. Große Teile des Zwischenberichts haben dagegen einen anderen Fokus: Menschen.
Ausführlich gehen die Expert*innen auf die Rolle von Eltern ein. Aus dem Bericht geht hervor: Die Erwachsenen sollen erst einmal selbst das Handy weglegen: „Elterliches Medienverhalten, Erziehungsstil und mediale Vorbildfunktion beeinflussen das Nutzungsverhalten von Kindern und Jugendlichen.“
Programme für Prävention würden vor allem Eltern erreichen, die schon sensibilisiert sind, heißt es weiter. „Manche Eltern werden nur schwer oder gar nicht erreicht.“ Der Grund: Ein Großteil der Angebote für Eltern sei lediglich auf Deutsch und würde die „unterschiedlichen Lebenslagen von Familien“ nicht adressieren. Das deutet darauf hin, dass aktuelle Hilfsangebote wohl Familien benachteiligen, die ohnehin weniger Privilegien haben.
Wichtig ist dem Bericht zufolge außerdem, dass Eltern und Schulen an einem Strang ziehen: „Digitale Erziehung ist wirksamer, wenn Schule und Elternhaus konsistente Normen und Regeln festlegen“, so die Expert*innen. Ein wirksamer Erziehungsstil setze auf „Wärme, Struktur und Partizipation“. Die Formulierung lässt aufhorchen: Wärme statt Verbote.
Neben Eltern und Lehrer*innen gehen die Expert*innen auf weitere Menschen ein, die helfen können, gerade um „Familien mit Unterstützungsbedarf tatsächlich zu erreichen“. Konkret nennen sie Kinderärzt*innen, Gynäkolog*innen und Hebammen, „da sie in der Regel das Vertrauen der Familien genießen“.
Um Menschen geht es auch in der Kinder- und Jugendhilfe oder der Medienpädagogik. Letztere sei eine „freiwillige Leistung der Länder und Kommunen“, schreiben die Expert*innen; eine verlässliche Finanzierung sei „nicht gegeben“.
Sogar Polizist*innen sollen dem Bericht zufolge die Lage für Kinder und Jugendliche im Netz verbessern. Obwohl die Expert*innen keine Handlungsempfehlungen aussprechen wollen, heißt es im Bericht: Es „fehlt“ an „Formen zufälliger Sichtbarkeit von Polizeibehörden im Sinne einer Form von virtuellen Streifen in Deutschland.“ Der direkte Kontakt mit Beamt*innen im Netz könne angeblich die Bereitschaft junger Menschen erhöhen, Dinge wie Grooming anzuzeigen.
Was all diese Ansätze gemeinsam haben: Eltern und Fachkräfte müssten sich vermehrt Kindern und Jugendlichen widmen. Im Gegensatz zu Verboten und technischen Hürden kostet das Zeit und Geld.
Alterskontrollen: Die Achillesferse des Berichts
Auch Plattformregulierung spielt eine wichtige Rolle im Zwischenbericht. Das zentrale Regelwerk hierfür ist das EU-Gesetz über digitale Dienste (DSA). Demnach müssen unter anderem große Social-Media-Plattformen Maßnahmen zum Schutz junger Menschen ergreifen. Zum Beispiel können sie Chat-Kontakte mit Fremden einschränken oder es Nutzer*innen einfach machen, Vorfälle zu melden.
Eine wichtige Rolle spielen auch manipulative und suchtfördernde Designs, insbesondere die Sogwirkung personalisierter Feeds, von denen man sich ohne starke Impulskontrolle kaum lösen kann. Mithilfe des DSA könnte die EU genau dort ansetzen und Social-Media-Konzerne dazu zwingen, nicht länger die Aufmerksamkeit junger Menschen mit allen Mitteln zu Geld zu machen.
Alterskontrollen sind laut DSA nur eine Option unter mehreren solcher Vorsorgemaßnahmen. Offenbar wollen die Expert*innen Alterskontrollen jedoch mehr ins Zentrum rücken, eventuell zur Pflicht machen. Das zeigt folgender Schlüsselsatz:
Strukturelle Vorsorgemaßnahmen wie sie der DSA vorsieht, können ihre volle Wirksamkeit nur mithilfe einer funktionalen Altersüberprüfung entfalten.
Dahinter steckt ein folgenschwerer Regulierungsansatz. In diesem Fall wären Alterskontrollen überhaupt erst die Grundlage für weitere Jugendschutzmaßnahmen. Sie würden nicht mehr dazu dienen, junge Menschen von einer Plattform auszusperren. Stattdessen würden sie sicherstellen, dass junge Menschen einen Account wirklich nur im passenden Jugendschutz-Modus nutzen. Die mögliche Konsequenz wären großflächige Alterskontrollen über weite Teile des Internets.
Obwohl die Expert*innen noch keine Handlungsempfehlungen aussprechen wollen, fordern sie im Zwischenbericht sogar eine Ausweitung der Alterskontrollen über den aktuellen DSA hinaus: „Ausgangspunkt einer Altersverifikation sollten jedoch grundsätzlich bestehende Risiken für Kinder und Jugendliche sein, daher ist der Schutz auszuweiten“, heißt es. Konkret nennt der Bericht „Klein- und Kleinstunternehmer“, die der DSA aktuell von Jugendschutz-Pflichten ausnimmt.
Auch das hätte weitreichende Folgen: Selbst Unternehmen mit nur einem Angestellten müssten demnach möglicherweise Alterskontrollen für ihre Online-Angebote einführen.
Forschende schlagen Alarm: Kontrollen „nicht hinnehmbar“
Solche Alterskontrollen sind nicht bloß ein Website-Feature. Um, wie oft gefordert, wirksam zu sein, müssen sich Nutzer*innen etwa mit Ausweisdokumenten oder biometrischen Gesichtsscans verifizieren. Die eingangs erwähnten mehr als 400 Forscher*innen aus den Bereichen Technologie, IT-Sicherheit und Privatsphäre warnten in ihrem offenen Brief eindringlich vor den Folgen.
Es fehle ein klares Verständnis dafür, was Alterskontrollen anrichten können – für „Sicherheit, Privatsphäre, Gleichberechtigung“ und die „Autonomie“ aller Menschen. Deren Einführung ohne weitere Forschung sei „gefährlich und gesellschaftlich nicht hinnehmbar“.
Jüngst hat die EU-Kommission einen Vorschlag zur Umsetzung von Alterskontrollen präsentiert: Eine App, die zunächst nur auf iOS und Android läuft, und primär Ausweispapiere nutzt. Bereits das schafft potenziell gefährliche Abhängigkeiten von den US-Konzernen Apple und Google, führt zu einem Handy-Zwang und benachteiligt Menschen, die keine (oder keine mit der App kompatiblen) Papiere haben.
Rund um die Alterskontroll-App der EU gibt es zudem mehrere technische Unklarheiten und falsche Versprechungen. So soll die App laut EU-Kommission „komplett anonym“ sein, setzt aber noch auf Pseudonyme. Die Spezifikationen der App bieten in der nationalen Umsetzung viele Spielräume, die Privatsphäre schlimmstenfalls weiter schwächen.
Die größte Gefahr von Alterskontrollen liegt jedoch darin, dass sie eine umfassende Kontroll-Infrastruktur im Netz schaffen. Selbst wenn zu Beginn Datenschutz und Privatsphäre im Mittelpunkt stehen: Es bräuchte lediglich eine kleine Anpassung im Code und eine neue Rechtsgrundlage – fertig wären Ausweis- und Klarnamenpflicht im Netz. Alterskontrollen rücken die EU gefährlich nah an eine Form der Massenüberwachung, die in der Türkei gerade auf dem Weg ist.
Reaktion: SPD-Fraktion will „verpflichtende“ Altersverifikation
Für ihren Zwischenbericht mussten sich die Forschenden wohl sehr beeilen. Ursprünglich sollten alle Ergebnisse in Ruhe gemeinsam erscheinen, nach einem Jahr Arbeit. Aber Spitzenpolitiker*innen aus Bund, Ländern und der EU erhöhen seit Monaten den Druck.
Die Co-Vorsitzende der Expert*innen-Kommission hatte dem Tagesspiegel noch im März gesagt: „Ich rate der Politik dringend, uns in Ruhe arbeiten zu lassen“. Daraus ist nichts geworden. Früher als ursprünglich geplant hatten die Expert*innen nun die Bestandsaufnahme vorgelegt. Und selbst das geht manchen nicht schnell genug.
Nach der ersten Veröffentlichung, die ausdrücklich noch keine konkreten Empfehlungen geben sollte, sieht sich die SPD bereits in ihren Forderungen bestätigt. In einer hastigen Pressemitteilung der SPD-Fraktion im Bundestag pochte die jugendpolitische Sprecherin Jasmina Hostert unter anderem auf „verpflichtende, datensparsame Altersverifikation“. Die CDU hatte sich schon per Parteitagsbeschluss im Februar auf verpflichtende Alterskontrollen eingeschworen.
Solche Schnellschüsse werfen die Frage auf, wie viel Respekt die Regierungsparteien gegenüber Wissenschaft und evidenzbasierter Politik haben. Zugleich zeigen sie den Expert*innen, wofür sich die Politik offenkundig am meisten interessiert. Zumindest bisher scheinen die Technikfolgen von Alterskontrollen für die Expert*innen-Kommission keine große Rolle gespielt zu haben.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
Da es vermutlich sonst in der heutigen Aufregung um die #Vorratsdatenspeicherung untergehen wird: ein klares BUH in Richtung @GrueneBundestag für das neue Positionspapier, in dem die Grüne Bundestagsfraktion verpflichtende #Alterskontrollen bei Social Media unterstützt.
Gesehen im @netzpolitik_feed Ticker mit der Einordnung: Eine 'rechtssichere, verlässliche, diskriminierungsfreie, datensparsame und grundrechtsschonende Lösung'. Diese Technologie existiert nicht.
https://cdn.netzpolitik.org/wp-upload/2026/04/26_04_21_Gruenes_Positionspapier_Social-Media.pdf -
Dieses Mal geht’s bei uns unter anderem um ein #Urteil zur #LetztenGeneration, geplante Einschnitte bei der #Lohnfortzahlung, Kürzungen gegen #Menschenrechte und #Regenwälder.
Vorratsdatenspeicherung, Fahren ohne Fahrschein, #Alterskontrollen und andere Evergreens sind natürlich auch dabei.
Die Folge wurde am 19. April aufgenommen.
Reboot Politics: Unheilige Dreifaltigkeit
Webseite der Episode:
https://podcasts.homes/@rebootpolitics/episodes/unheilige-dreifaltigkeitMediendatei:
https://podcasts.homes/audio/@rebootpolitics/unheilige-dreifaltigkeit.mp3?_from=antennapod.org#Polizeirechtsnovelle
#Fernandez
#Vorratsdatenspeicherung
Katherina #Reiche #Batteriespeicher
#Gaslobby
@AufstandLastGen
@GrueneBundestag
@gruenelvnds
@[email protected] -
Dieses Mal geht’s bei uns unter anderem um ein #Urteil zur #LetztenGeneration, geplante Einschnitte bei der #Lohnfortzahlung, Kürzungen gegen #Menschenrechte und #Regenwälder.
Vorratsdatenspeicherung, Fahren ohne Fahrschein, #Alterskontrollen und andere Evergreens sind natürlich auch dabei.
Die Folge wurde am 19. April aufgenommen.
Reboot Politics: Unheilige Dreifaltigkeit
Webseite der Episode:
https://podcasts.homes/@rebootpolitics/episodes/unheilige-dreifaltigkeitMediendatei:
https://podcasts.homes/audio/@rebootpolitics/unheilige-dreifaltigkeit.mp3?_from=antennapod.org#Polizeirechtsnovelle
#Fernandez
#Vorratsdatenspeicherung
Katherina #Reiche #Batteriespeicher
#Gaslobby
@AufstandLastGen
@GrueneBundestag
@gruenelvnds
@[email protected] -
Dieses Mal geht’s bei uns unter anderem um ein #Urteil zur #LetztenGeneration, geplante Einschnitte bei der #Lohnfortzahlung, Kürzungen gegen #Menschenrechte und #Regenwälder.
Vorratsdatenspeicherung, Fahren ohne Fahrschein, #Alterskontrollen und andere Evergreens sind natürlich auch dabei.
Die Folge wurde am 19. April aufgenommen.
Reboot Politics: Unheilige Dreifaltigkeit
Webseite der Episode:
https://podcasts.homes/@rebootpolitics/episodes/unheilige-dreifaltigkeitMediendatei:
https://podcasts.homes/audio/@rebootpolitics/unheilige-dreifaltigkeit.mp3?_from=antennapod.org#Polizeirechtsnovelle
#Fernandez
#Vorratsdatenspeicherung
Katherina #Reiche #Batteriespeicher
#Gaslobby
@AufstandLastGen
@GrueneBundestag
@gruenelvnds
@[email protected] -
Dieses Mal geht’s bei uns unter anderem um ein #Urteil zur #LetztenGeneration, geplante Einschnitte bei der #Lohnfortzahlung, Kürzungen gegen #Menschenrechte und #Regenwälder.
Vorratsdatenspeicherung, Fahren ohne Fahrschein, #Alterskontrollen und andere Evergreens sind natürlich auch dabei.
Die Folge wurde am 19. April aufgenommen.
Reboot Politics: Unheilige Dreifaltigkeit
Webseite der Episode:
https://podcasts.homes/@rebootpolitics/episodes/unheilige-dreifaltigkeitMediendatei:
https://podcasts.homes/audio/@rebootpolitics/unheilige-dreifaltigkeit.mp3?_from=antennapod.org#Polizeirechtsnovelle
#Fernandez
#Vorratsdatenspeicherung
Katherina #Reiche #Batteriespeicher
#Gaslobby
@AufstandLastGen
@GrueneBundestag
@gruenelvnds
@[email protected] -
Unheilige Dreifaltigkeit
Nach einem aufregenden Wochenende kam gestern die neue Folge @rebootpolitics raus.
Dieses Mal ging es u.a. um ein Urteil zur @AufstandLastGen, geplante Einschnitte bei der Lohnfortzahlung, Kürzungen gegen Menschenrechte und Regenwälder. #Vorratsdatenspeicherung, Fahren ohne gültigen Fahrschein, #Alterskontrollen, die Sächsische Polizeirechtsreform, Social Media Verbote und andere Evergreens sind natürlich auch dabei.
Die Folge wurde am 19. April 2026 aufgenommen.
Webseite der Episode: https://podcasts.homes/@rebootpolitics/episodes/unheilige-dreifaltigkeit
Mediendatei: https://podcasts.homes/audio/@rebootpolitics/unheilige-dreifaltigkeit.mp3?_from=antennapod.org
#Podcast #RebootPolitics #LetzteGeneration #VDS #SocialMediaVerbot #noPolG
-
Technische #Alterskontrollen: bald auch bei #PlayStation.
Ab Juni sollen sämtliche Kommunikationsfeatures auf der Gamingplattform für User*innen aus UK und Irland nur noch ab 18 zugänglich sein. Kontrolle? Einmalig per Handy, biometrische Gesichtserkennung oder Ausweis.Auch ab Juni, plötzlich ein unerklärlicher Trend: Jugendliche in UK und Irland bieten Eltern oder anderen Erwachsenen in ihrer Nachbarschaft selbstlos Support für deren Handys an.
https://www.playstation.com/en-ie/support/account/age-verification-faq/
#Gaming -
RE: https://mastodon.social/@sebmeineck/116414899060916259
🗣️Ein Social-Media-Verbot ist untrennbar mit #Alterskontrollen verbunden – darauf macht @sebmeineck im aktuellen Beitrag von NDR ZAPP aufmerksam.
Neben erwachsenen Expert*innen kommen dort vor allem diejenigen zu Wort, die es direkt betrifft – junge Menschen selbst.
Unsere Einschätzung zu Social-Media-Verboten und #Altersverifikation haben wir gestern bei #DatenschutzImFokus geteilt: https://stiftungdatenschutz.org/veroeffentlichungen/datenschutz-im-fokus/datenschutz-im-fokus-detailansicht/altersverifikation-fuer-alle-694
-
"Anfang März haben 400 Forscher*innen aus 29 Ländern in einem offenen Brief gefordert: Staaten sollen ihre Pläne für Alterskontrollen stoppen"
Seit wann müssen Experten quantifiziert werden?
Kann Expertise eigentlich demokratisch sein?
Gibt es eine notwendige kritische Menge an Experten, bis Meinungen(!) sich ändern?
Frage für einen Freund - und für Klima, digitale Rechte, Verkehr...#gdpr #datenschutz #experten #politik #eu #rechte #alterskontrollen #opensource #digitaleSoveränität
-
Neben den Problemen für Privatsphäre & FOSS birgt der Vorschlag verpflichtender technischer #Alterskontrollen noch weitere Gefahren für essentielle Grundrechte und die Demokratie:
Die gesellschaftliche Teilhabe von Kindern und Jugendlichen würde damit eingeschränkt. Wie würde sich das auf die politischen Wirkungsmöglichkeiten der Jugend zur Mobilisierung zu Protesten zu Klima oder Wehrpflicht auswirken, wenn sie künftig keinen / eingeschränkten Zugang zu bestimmten Kommunikationsdiensten haben?
-
Gravierend wären auch die möglichen Gefahren für Menschen ohne staatliche Identitätsdokumente. Wird der Zugang zu Internetdiensten durch technische #Alterskontrollen beschränkt und womöglich, wie die EU-Kommission es sich wünscht, dann mit elektronischen Identitäten durchgeführt, könnte das viele Menschen von der gesellschaftlichen Teilhabe ausschließen. Das trifft besonders solche, die bereits stärker von Diskriminierungen betroffen sind.
Siehe das @edri Paper von 2023:
https://edri.org/our-work/policy-paper-age-verification-cant-childproof-the-internet/ -
Besonders spannend werden heute aber auch Diskussionen zum Thema #Alterskontrollen, die ebenfalls auf der Tagesordnung stehen. Die EU-Kommission würde gerne Anbieter dazu verpflichten, Messenger-Dienste an technische Alterskontrollen zu binden. Das könnte desaströse Auswirkungen auf das Recht auf Privatsphäre und für freie Software haben.
Gemeinsam mit unserem europäischen Dachverband @edri fordern wir von den Verhandler*innen eine klare Absage an eine solche Verpflichtung.
-
#Social_Media_Verbot lässt #Bundesregierung ahnungslos zurück.
Die Bundesregierung weiß nicht, ob ein Social-Media-Verbot für #Minderjährige #wissenschaftlich ratsam wäre. Sie weiß auch nicht, ob der Eingriff in Grundrechte verhältnismäßig wäre – oder ob sie das Verbot überhaupt will. Das zeigt die Antwort auf eine Kleine Anfrage der Linken.
-
EU-Recht geht vor: Kein Spielraum für deutsches Social-Media-Verbot
Die Wissenschaftlichen Dienste des Bundestags haben ein zweites Mal untersucht, ob Deutschland nicht doch soziale Medien für Minderjährige verbieten könnte. Die Jurist*innen sehen jedoch nur Hürden – und verweisen aufs Grundgesetz.
Darf Deutschland soziale Medien für Minderjährige verbieten? Damit haben sich die Wissenschaftlichen Dienste des Bundestags nun ein zweites Mal befasst. Nach wie vor sehen sie dafür keinen Spielraum. Vor allem das EU-Recht stellt Deutschland – und anderen EU-Mitgliedstaaten – hohe Hürden in den Weg. Das geht aus dem 27-seitigen Bericht hervor, den wir hier veröffentlichen.
Bereits im August 2025 sind die Wissenschaftlichen Dienste in eine Analyse zu diesem Ergebnis gekommen. Seitdem sind die Forderungen nach einem Social-Media-Verbot in Deutschland nur noch lauter geworden. Die CDU hat sich dem Vorhaben per Parteitagsbeschluss verschrieben, auch wichtige SPD-Politiker*innen fordern es. Zuspruch gibt es vom Kanzler und vom Vize-Kanzler. Deutschland ist damit in der EU nicht allein. Unter anderem Frankreich, Spanien und Österreich verfolgen ähnliche Pläne.
Eingriff ins Elternrecht
Die Expert*innen der Wissenschaftliche Dienste arbeiten laut Selbstbeschreibungparteipolitisch neutral und sachlich objektiv. Gegen ein deutsches Social-Media-Verbot für Minderjährige sprechen ihrem Bericht zufolge vor allem vier rechtliche Gründe.
Erstens: Der Anwendungsvorrang. Er bedeutet, dass im Zweifel EU-Recht vor nationalem Recht gilt. Und die EU hat bereits einen Rechtsrahmen für soziale Medien. Das Gesetz über digitale Dienste (DSA) sieht je nach Risiko und je nach Online-Dienst spezifische Maßnahmen vor, auch zum Schutz von Minderjährigen. Das kann zum Beispiel bedeuten, dass ein Social-Media-Dienst suchtfördernde Funktionen abmildern muss. Auch Altersgrenzen und Kontrollen sind im DSA eine Option, aber keine Pflicht.
Nationale Regelungen wie ein Social-Media-Verbot könnten sich mit dem DSA beißen. Mitgliedstaaten dürften sie zwar beschließen, aber nicht anwenden. Die Expert*innen schreiben dazu: Der Anwendungsvorrang wirke dann, wenn „eine nationale Regelung den Anwendungsbereich der jeweiligen EU-Verordnung tangiert oder eine ähnliche Zielsetzung verfolgt“.
Zweitens: Die „vollständige Harmonisierung“ des Binnenmarkts. Hier geht es um Unternehmen. Zerstückelte Regelwerke in 27 Mitgliedstaaten sollen sie nicht abschrecken, in der EU Geschäfte zu machen. Stattdessen sollen die einheitlichen Vorschriften im DSA „eine Fragmentierung des Binnenmarkts verhindern bzw. beenden“, fassen die Wissenschaftlichen Dienste zusammen.
Drittens: Das Herkunftslandprinzip. Hier geht es darum, dass internationale Konzerne nur in dem EU-Mitgliedstaat reguliert werden sollen, wo sie auch ihren Sitz haben. Im Fall sozialer Medien wie TikTok, Instagram oder YouTube ist das Irland. Die Jurist*innen der Wissenschaftlichen Dienste halten deshalb fest:
Nationale Regelungen bzgl. einer Sperrung bzw. Beschränkung von Social-Media-Plattformen (z.B. Meta, Google, X, TikTok etc.) hätten danach weitgehend keine Auswirkungen.
Viertens: Das Elternrecht. Hier geht es mal nicht um EU-Recht, sondern ums Grundgesetz, und zwar ums „grundrechtlich gewährleistete Erziehungsrecht der Eltern“. Dieses Elternrecht schützt Eltern „vor Eingriffen in Fragen der Kindererziehung“, wie die Jurist*innen erklären. „Es umfasst dabei gegebenenfalls auch ihre Entscheidung, Medieninhalte ihren Kindern zugänglich zu machen, die sich potenziell schädlich auswirken können“.
Das bedeutet: Selbst wenn manche Eltern gerne ein staatliches Social-Media-Verbot für ihre Kinder hätten – möglicherweise darf sich der Staat in dieser Form schlicht nicht in die Erziehung einmischen.
„Populistische Verbote“
Unterm Strich beschreiben die Jurist*innen vor allem Hürden für ein deutsches Social-Media-Verbot; Spielräume dagegen nicht. Das letzte Wort ist damit aber nicht gesprochen – das wäre auch nicht die Aufgabe der Wissenschaftlichen Dienste. Hierfür verweisen die Expert*innen auf den Europäischen Gerichtshof: „Abschließend könnte über die Frage verbleibender Regelungsspielräume der Mitgliedstaaten im Bereich des Verbots bzw. der Beschränkung von Social-Media-Plattformen nur der EuGH entscheiden.“
Der Bundestagsabgeordnete David Schliesing (Die Linke) kommentiert mit Blick auf das Gutachten: „Obwohl die Regierungsparteien populistisch Verbote als schnelle Lösung fordern, würden diese sowohl im EU-Recht als auch durch das Grundgesetz auf erhebliche Hürden stoßen.“ Die Debatte solle schnellstmöglich versachlicht werden. „Erstens müssen die bereits bestehenden rechtlichen Instrumente endlich konsequent genutzt werden“, so Schliesing, „zweitens müssen wir die Medienpädagogik stärken. Schulen, Familien und die Jugendhilfe benötigen dafür mehr Zeit, Personal und bessere Rahmenbedingungen.“
Die dünne Rechtslage dürfte den Befürworter*innen nationaler Social-Media-Verbote in Deutschland und anderen EU-Mitgliedstaaten bekannt sein. Wohl auch deshalb verbinden viele ihre Vorstöße mit Forderungen nach einer EU-weiten Lösung, so auch die Unterzeichner*innen des SPD-Papiers. Auf diese Weise gerät die EU-Kommission unter Druck, möglicherweise doch noch einen eigenen Entwurf für ein EU-weites Verbot vorzulegen.
Viele Organisationen haben Kritik an einem Social-Media-Verbot und den zur Durchsetzung geforderten Alterskontrollen. Warnungen und Ablehnung kommen etwa von Kinderschützer*innen und Lehrer*innen, von IT-Sicherheitsforschenden, aus kirchlichen Organisationen und Elternverbänden. Bis Sommer sollen Expert*innen-Kommissionen auf EU-Ebene und Deutschland-Ebene Lösungen für Kinder- und Jugendschutz im Netz entwickeln.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
Zu Alterskontrollen im Internet:
«Es ist wichtig, dass wir direkt über Pornografie sprechen.
Das wird aktuell weil man u.a. deswegen Altersverifikationen auf Plattformen installieren möchte, die zur Überwachung von allen führen.
Tatsächlich hat unsere Gesellschaft einen hohen Pornografiekonsum. Der nicht besprochen wird. 30% des Internet Traffics ist Pornografie.
Auf Plattformen gibt es viel schädliches Material und schädliche Haltungen von Plattformen, die sich etwa als "amoralisch" bezeichnen.
Weil man sich daran - zurecht - stört, aber nicht den Mut hat, das gesamtgesellschaftlich zu addressieren, schiebt man es nun auf "die Kinder".
Big Tech, Staaten und Aktivisten gegen Pornografie bilden hier eine unheilige Allianz.
Big Tech will Daten. Die anderen wollen irgendetwas unternehmen, damit es besser wird.
Es wird so aber nicht besser und wir bekommen Überwachung.
Und es ist offensichtlich, dass das Problem eines von Erwachsenen ist und nicht auf Kinder abgewälzt werden kann. Wollen wir eine bessere Gesellschaft müssen wir diesen Abgrund beleuchten.
Kaum ein Thema, wo so laut geschwiegen wird.»
Text: Monica Amgwerd: https://x.com/monica_amgwerd/status/2039090657306816666?s=46
(hoffentlich bald auch hier im Fediverse unterwegs)#Alterskontrollen #Altersverifikation #Pornographie #Gesellschaft
-
Auf den von #CDU und #SPD vorbereiteten und auch von Teilen der Grünen geforderten Alterkontrollzwang für #SocialMedia folgen wenig überraschend die ersten Begehrlichkeiten, dies auch auf Chatprogramme auszuweiten. Diese Entwicklung ist typisch für Überwachungsvorhaben.
Unter dem Vorwand des Jugendschutzes folgt im weltweiten Gleichschritt die Einführung von Alters- und Identitätskontrollzwängen für den Zugang zum Internet, was alle Nutzenden betreffen würde und alle ausschließt, die über entsprechende Nachweise nicht verfügen können oder wollen.
Als Ideallösung werden dafür von der herrschenden Politik vor allem "digitale Identitäten" propagiert, die, wie im Falle der #EUDI sich aber auch als überwachungskapitalistische Instrumente mit ausweitbaren Zwecken erweisen, wie unter anderem epicenter.works anhand vieler Belege aufzeigen.
Die #Alterskontrollen stellen zudem ein frühes Beispiel der Hauptzwecke von "digitalen Identitäten" dar: Die digitale Kontrolle von Zugängen, Verhalten und Wissens- und Informationsinfrastrukturen für die weite Bevölkerung durch die Herrschenden.
-
Alterskontrollen und Social-Media-Verbot: Elternverbände sehen Daten von Kindern in Gefahr
CDU und Teile der SPD fordern Alterskontrollen im Netz, um ein Social-Media-Verbot für Minderjährige durchzusetzen. Aber Deutschlands Elternverbände haben Einwände: Manche lehnen die Pläne ab, andere knüpfen ihre Zustimmung an strenge Bedingungen.
Kinder sollen keine sozialen Medien mehr nutzen dürfen, und alle sollen dafür im Netz ihr Alter nachweisen. Das sind die Pläne der Kanzlerpartei CDU und wichtiger Politiker*innen der SPD Bei vielen Elternverbänden in Deutschland stößt das Vorhaben auf Kritik.
„Ein pauschales Social-Media-Verbot ohne begleitende Maßnahmen findet keine breite Unterstützung“, schreibt der Bundeselternrat mit Blick auf seine Landesverbände. Ein generelles Verbot „könnte Kinder eher isolieren als schützen“, warnt das Bundeselternnetzwerk, der Dachverband migrantischer Elternvereine, auf Anfrage von netzpolitik.org.
Durch die Bank äußern Eltern-Organisationen Bedenken beim Schutz sensibler Daten von Erwachsenen und Minderjährigen. Denn ein Social-Media-Verbot, wie es viele derzeit fordern, soll mit strengen Alterskontrollen einhergehen. Ältere Menschen könnten sich etwa per Ausweis prüfen lassen; Kinder ihr Gesicht vor die Handykamera halten. Die Elternvertretung Thüringen zum Beispiel lehnt die biometrische Erfassung von Kindern „ausdrücklich“ ab.
Zwei Organisationen fordern freiwillige Alterskontrollen. Das entspricht allerdings nicht dem australischen Modell, das deutsche und europäische Politiker*innen nachahmen möchten. Kontrollen beugen müssen sich demnach alle, auch die Erwachsenen. In Australien können Plattformen das Verhalten ihrer Nutzer*innen zunächst im Hintergrund mithilfe von Software prüfen. Sobald sich der Verdacht erhärtet, eine Person könnte zu jung sein, muss sie ihr Alter nachweisen.
Wie genau Alterskontrollen in Deutschland aussehen könnten, ist noch offen. Mindestens drei Szenarien sind wahrscheinlich:
- Erstens könnten Erwachsene und Jugendliche ab 16 Jahren ihr Alter per Ausweis-App bestätigen. Unter anderem der SPD-Vorschlag sieht dafür die für alle EU-Bürger*innen geplante digitale Brieftasche (EUDI-Wallet) vor, die in Deutschland Anfang 2027kommen soll.
- Zweitens könnten Menschen ihr Gesicht biometrisch scannen lassen; dann soll eine oftmals als „KI“ bezeichnete Software das Alter schätzen. So etwas gibt es schon heute für Pornoseiten.
- Schließlich könnten sich Erwachsene selbst bei einer Plattformen anmelden, dort ihr Alter verifizieren, und dann Minderjährigen Kindern einen Account freischalten.
Hier erklären wir genau, was die geplanten Alterskontrollen für Eltern bedeuten können.
Für diesen Artikel hat netzpolitik.org Elternverbände auf Bundes- und Landesebene um ihre Einschätzung zu Alterskontrollen und Social-Media-Verbot gebeten. Ihre Antworten ergänzen die vielfältigen Reaktionen aus Zivilgesellschaft, Wissenschaft und Kirche.
Bundeselternrat: Biometrie bei Kindern „besonders kritisch“
Der Bundeselternrat vertritt als Dachverband die teilnehmenden Elternverbände der Bundesländer. Diese Verbände engagieren sich auf Basis der Schulgesetze in der Schulpolitik. Nach einer internen Umfrage zieht der Dachverband ein ambivalentes Fazit. „Viele können sich strengere Altersregelungen grundsätzlich vorstellen – allerdings nur in Verbindung mit verbindlicher Medienbildung, wirksamer Prävention und klarer Verantwortung der Plattformanbieter.“
Wenn es um die praktische Umsetzung eines Social-Media-Verbots geht, äußert sich der Bundeselternrat skeptisch. Die geforderten Alterskontrollen werfen „Fragen zu Datenschutz, Datensicherheit und Verhältnismäßigkeit auf“, so der Dachverband. „Viele Eltern sehen es kritisch, wenn für alltägliche Online-Aktivitäten sensible Daten oder biometrische Verfahren erforderlich werden.“
Biometrische Verfahren bei Kindern würden viele Eltern sogar „besonders kritisch“ sehen. Ansätze, bei denen Eltern selbst einen Account anlegen, um einen Kinder-Account freizuschalten, müssten praktikabel und niedrigschwellig sein.
Bundeselternnetzwerk: „Alterskontrollen möglichst freiwillig“
Der Verein „Bundeselternnetzwerk der Migrantenorganisationen für Bildung & Teilhabe“, kurz bbt, versteht sich als Stimme migrantischer Eltern und Familien in Deutschland. Auf Anfrage erklärt Geschäftsführerin Anja Treichel, digitale Räume „dienen der Verbindung zu transnationalen Familien, zur Pflege von Sprache und Identität und zum Kontakt mit Freundeskreisen“. Ein generelles Social-Media-Verbot für Minderjährige würde das ignorieren. Es könnte „Kinder eher isolieren als schützen“, warnt sie.
Gegen Risiken im Netz brauche es Treichel zufolge „bessere Prävention von digitalem Mobbing, niedrigschwellige Meldewege für Diskriminierung“ sowie Unterstützung für Eltern, die sprachlichen Barrieren gegenüberstehen. Alterskontrollen sieht der Verein kritisch. Treichel erklärt:
Viele Familien – insbesondere solche mit Flucht- oder Migrationserfahrungen und solche, die in Diktaturen/ autoritären Regimen aufgewachsen sind – sind sensibel gegenüber staatlicher oder kommerzieller Datenerfassung. Biometrische Verfahren können Vertrauen in digitale Angebote untergraben. Alterskontrollen sollten daher möglichst datensparsam und freiwillig gestaltet sein.
Kontrollen auf Basis von Ausweisen könnten bestimmte Gruppen benachteiligen, schreibt sie weiter. „Menschen ohne sicheren Aufenthaltsstatus sind hier generell in Gefahr, ausgeschlossen zu werden.“
Außerdem kritisiert der Verein das Modell, dass Eltern sich zunächst selbst auf einer Plattform anmelden, um dann einen Account für ihre Kinder freizuschalten. Das setze voraus, „dass Eltern Zeit, digitale Kompetenz und Sprachkenntnisse haben“. Die beste Voraussetzung für gesunden Medienkonsum sei es, „wenn die Kinder den Eltern ihre Sorgen und Ängste anvertrauen und ihre Freuden mit ihnen teilen können“.
Deutscher Familienverband: „Bedenken“ bei Datenschutz
Der gemeinnützige Deutsche Familienverband befürwortet eine Social-Media-Regulierung für Kinder unter 14 Jahren, erklärt Geschäftsführer Sebastian Heimann auf Anfrage. Als Risiken nennt er „Cybermobbing, Suchtverhalten und unangemessene Inhalte“.
Bei Alterskontrollen mit digitalen Ausweisverfahren allerdings bestünden „Bedenken hinsichtlich Datenschutz und der Nutzung sensibler persönlicher Daten durch private Anbieter“. Das müsse „anhand der geltenden Gesetzeslage adressiert werden“, schreibt Heimamn.
Müssten Menschen ab 16 Jahren ihr Alter per Ausweis-App nachweisen, wäre das „akzeptabel“. Auf biometrische Scans per KI geht Heimann nicht ausdrücklich ein. Sollten Eltern ihren Kindern einen Account freischalten, könne das nur funktionieren, „wenn die Prozesse einfach und datenschutzfreundlich gestaltet sind“.
NRW: Verbot „zwingend“ durch Bildungsoffensive begleiten
Die Landeselternkonferenz Nordrhein-Westfalen vertritt die Eltern aus Deutschlands bevölkerungsreichstem Bundesland. Soziale Medien erst ab 14 Jahren zu erlauben ist ein „notwendiger Schritt zum Schutz der psychischen Gesundheit junger Menschen“, schreiben Torsten Hemkemeier und Hinrich Pich aus dem Vorstand auf Anfrage. Sie verweisen auf Risiken wie „Algorithmen, Suchtpotenziale und Cybermobbing“. Den Zuspruch knüpft die Elternkonferenz jedoch an zwei Bedingungen.
Erstens brauche es „technische Lösungen, die lediglich das Alter verifizieren, ohne personenbezogene Daten an die Konzerne zu übermitteln oder die Datenhoheit der Bürger zu gefährden“. Eine direkte Anmeldung per Ausweis bei Anbietern wie TikTok oder Meta würde „die Anonymität im Netz zerstören“, so Hemkemeier und Pich. Beim Austausch zu sensiblen Themen „wie Krankheiten, Schwangerschaften oder schulischen Problemen“ müsse Anonymität gewahrt bleiben. In der Vergangenheit seien soziale Netzwerk mehrfach Ziel erfolgreicher Hackerangriffe geworden, „bei denen Millionen von Nutzerdaten entwendet wurden“.
Zweitens müsse ein Social-Media-Verbot „zwingend durch eine massive Bildungsoffensive in den Schulen begleitet werden“, weil Sperren „niemals lückenlos sein werden“. Lehrer*innen seien bereits stark belastet. Deshalb fordert der Verband Geld „für externes Fachpersonal, dass die Medienkunde professionell in den Schulalltag integriert“. Die Kosten für diese Art der Prävention seien „weitaus geringer als die gesellschaftlichen und medizinischen Folgekosten“ von Cybermobbing oder Mediensucht.
Bayern: „Kein generelles Verbot“
Der Bayerische Elternverband (BEV) vertritt die Eltern aus Bayern, dem nach Einwohner*innen zweitgrößten deutschen Bundesland. Die Forderung des Verbands: „Kein generelles Verbot sozialer Medien“. Ein solches Verbot würde digitale Teilhabe von Kindern und Jugendlichen einschränken, nicht aber das Kernproblem lösen, erklärt BEV-Vorstandsmitglied Gundolf Kiefer. Neben seiner Tätigkeit im BEV ist er Professor für Informatik an der Technischen Hochschule Augsburg. Kiefer schreibt:
Das eigentliche Problem ist nicht der soziale Austausch Jugendlicher über das Internet, sondern es sind die Geschäftsmodelle der großen kommerziellen Plattformen: Algorithmen, die gezielt auf Engagement durch Empörung und Eskalation optimiert sind, auf möglichst langen Verbleib auf der Plattform, kombiniert mit zielgerichteter Werbung und umfassender Datenerfassung.
Statt eines pauschalen Verbots fordert der BEV ein rechtlich durchgesetztes Verbot von Plattformen, die für Menschen unter 16 Jahren „suchtverstärkende Algorithmen einsetzen oder Lock-in-Effekte zur Bindung nutzen“. Das könne Eltern entlasten. Zur Einordnung: Einen solchen Risiko-basierten Ansatz verfolgt das bereits bestehende Gesetz über digitale Dienste (DSA); dessen Lücken will die EU-Kommission mit dem geplanten Digital Fairness Act schließen.
In technischen Alterskontrollen sieht der BEV keine Lösung, wie aus der Antwort hervorgeht. Kontrollen per Biometrie oder Ausweis-App „sind aus Datenschutzsicht problematisch und lassen sich leicht umgehen“, warnt Kiefer. Hochsensible Daten könnten bei Unternehmen landen, „deren Geschäftsmodell auf Datenextraktion basiert – ein erhebliches Datenschutzrisiko“.
Statt eines Verbots sollten Schulen jungen Menschen Alternativen nahebringen, etwa das dezentrale Fediverse oder offene Messenger wie Element. Dann könnten Eltern ihren Kindern sagen: „Nein, du brauchst TikTok nicht – hier sind bessere Optionen.“
Sachsen: „Privacy by Design“ als Voraussetzung
Der Landeselternrat in Sachsen fordert ein „umfassendes Schutzkonzept“ für Kinder und Jugendliche, schreibt Vorsitzender Ronald Lindecke auf Anfrage. Lehrkräften zufolge seien Klassen weniger konzentriert; Schüler*innen würden Konflikte aus digitalen Räumen in den Schulalltag tragen. „Kinder sollten nicht den Mechanismen einer Plattformökonomie ausgesetzt sein, die stark auf Aufmerksamkeit, Datenauswertung und Konsum ausgerichtet ist“, schreibt Lindecke.
Wenn Social-Media-Regeln für unter 14-Jährige ein Teil des Konzepts sind, stehe er dem „grundsätzlich offen gegenüber“. Alterskontrollen hält er sogar für „zwingend notwendig“, entscheidend sei jedoch das Wie. Hierfür nennt Lindecke zwei Bedingungen: „Aus Elternperspektive kann eine Verifizierung Zustimmung finden, wenn sie datenschutzfreundlich und freiwillig umgesetzt wird“. Zur Erinnerung: Das australische Modell, das hierzulande als Vorbild gilt, ist nicht freiwillig oder datenschutzfreundlich.
Konkret fordert Lindecke „Privacy by Design“. Daten sollen demnach mit Ende-zu-Ende-Verschlüsselung übertragen werden; es sollen keine zentralen Datenbanken entstehen; und eine App sollte nur notwendige Attribute übermitteln. Das heißt zum Beispiel, dass eine Plattform mit Altersbeschränkung nicht etwa das Geburtsdatum einer Person erfährt, sondern bloß, ob sie alt genug ist.
Thüringen: „Lehnen biometrische Erfassung von Kindern ab“
Die Landeselternvertretung Thüringen sieht „hohen Klärungsbedarf“ bei Alterskontrollen für soziale Medien. „Wir halten Lösungen für sinnvoll, die sicherstellen, dass Eltern ihre Kinder schützen können, ohne selbst umfangreiche persönliche Daten preiszugeben“, schreibt Landeselternsprecher Peter Oehmichen auf Anfrage. „Dabei lehnen wir ausdrücklich die biometrische Erfassung von Kindern ab.“
Wenn Bilder von Kindern ins Netz gelangen, lasse sich nicht lückenlos prüfen, ob Datensammlungen entstehen. Die Elternvertretung warnt vor einem Risiko für die Sicherheit der Kinder.
„Verbote allein sind keine Lösung“, schreibt Oehmichen weiter. Er warnt davor, die Nutzung sozialer Medien zu kriminalisieren. Ein Verbot mache es schwerer, Kinder bei digitalen Aktivitäten zu begleiten. „Eltern sollen Partner im digitalen Schutz sein“. Der wichtigste Ansatz sei „Prävention, Aufklärung und Stärkung von Kindern“.
Mecklenburg-Vorpommern: Medienkompetenz vermitteln
Für den Landeselternrat Mecklenburg-Vorpommern steht ein Social-Media-Verbot nicht oben auf der Prioritätenliste. „Entscheidend ist aus unserer Sicht vor allem, dass Kinder frühzeitig lernen, verantwortungsvoll und kritisch mit digitalen Medien umzugehen“, erklärt Vorsitzende Diana Zander. Der Landeselternrat setze sich dafür ein, dass Schulen verbindlich Medienkompetenz vermitteln. „Ein reines Verbot ohne begleitende Bildung und Aufklärung würde zu kurz greifen.“
Technische Alterskontrollen könnten zwar helfen, Altersgrenzen besser durchzusetzen. Gleichzeitig müssten sie hohe Anforderungen an Datenschutz und Datensicherheit erfüllen. „Viele Eltern haben hier Bedenken, insbesondere wenn biometrische Daten wie Gesichtsscans genutzt werden sollen“, schreibt Zander. Außerdem dürften technische Lösungen nicht nur Hürden schaffen; sie müssten tatsächlich zur Sicherheit von Kindern beitragen.
Fazit: Eltern wollen Datenschutz für ihre Kinder
Die angefragten Eltern und ihre Vertreter*innen wünschen sich Schutz für ihre Kinder – das umfasst auch den Schutz ihrer Daten und Privatsphäre. Wirksame Alterskontrollen, die Daten von Kindern und Erwachsenen schützen und keine problematischen Hürden schaffen, diese Hoffnung prägt die aktuelle Debatte zum Social-Media-Verbot.
Erfüllen lässt sich diese Hoffnung aber nicht, denn bisher gibt es keine Technologie, die den Ansprüchen gerecht werden kann. Der Stand der Technik und die Rechtslage legen nahe: Die von Elternverbänden geäußerten Bedenken sind fundiert.
- Die digitale Brieftasche (EUDI-Wallet) ist die derzeit wohl ambitionierteste Lösung für potenziell EU-weite Alterskontrollen bei hohem Datenschutz. Ob diese Alterskontrollen jedoch wirklich anonym ablaufen, steht noch nicht fest. Eine Lösung für alle kann die digitale Brieftasche ohnehin nicht sein: Menschen ohne mit der Wallet kompatible Papiere können sie nicht nutzen, in Deutschland sind das Schätzungen zufolge mehrere Hunderttausend. Laut EU-Gesetz muss die digitale Brieftasche zudem „freiwillig“ sein. Das heißt, es muss Alternativen geben.
- Alternative Methoden zur Alterskontrolle wiederum versagen regelmäßig in Sachen Datenschutz und Privatsphäre. Wie gefährlich das werden kann, zeigen Fälle der jüngsten Vergangenheit: Kurz nachdem die Team-Software Discord Alterskontrollen eingeführt hatte, gab es einen Leak bei einem Drittanbieter; Betroffen waren sensible Ausweisdaten von 70.000 Menschen. In Australien wiederum horten manche Anbieter für Alterskontrollen ohne Not biometrische Daten, wie ein Gutachten im Auftrag der australischen Regierung zeigte.
In einem offenen Brief von Anfang März forderten 400 Forscher*innen aus 29 Ländern: Staaten sollen ihre Pläne für Alterskontrollen stoppen. Es fehle ein klares Verständnis für die Folgen der Technologie in Bezug auf „Sicherheit, Privatsphäre, Gleichberechtigung“ und die „Autonomie“ aller Menschen. Die Einführung von Alterskontrollen ohne weitere Forschung sei „gefährlich und gesellschaftlich nicht hinnehmbar“.
Derzeit arbeiten Expert*innen-Kommission auf Deutschland- und EU-Ebene an Antworten für Kinder- und Jugendschutz im Netz. Ergebnisse sollen beide Gremien bis zum Sommer vorlegen. Im Anschluss könnte die Arbeit an Gesetzentwürfen beginnen. Deutschlands Elternverbände dürften das genau verfolgen.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
CDU und Teile der SPD fordern #Alterskontrollen im Netz, um ein Social-Media-Verbot für Minderjährige durchzusetzen. Aber Deutschlands Elternverbände haben Einwände: Manche lehnen die Pläne ab, andere knüpfen ihre Zustimmung an strenge Bedingungen, berichtet @sebmeineck.
-
CDU und Teile der SPD fordern #Alterskontrollen im Netz, um ein Social-Media-Verbot für Minderjährige durchzusetzen. Aber Deutschlands Elternverbände haben Einwände: Manche lehnen die Pläne ab, andere knüpfen ihre Zustimmung an strenge Bedingungen. netzpolitik.org/2026/altersk...
Alterskontrollen und Social-Me... -
Nun ja.
Demnächst hat der Staat dann ja ein Mittel via #Alterskontrollen solche Pfosten vom Internet aus zu schließen.
-
Social-Media-Verbot: So schwach argumentiert die Familienministerin
In einer Rede vor dem Bundestag spricht sich CDU-Familienministerin Karin Prien für Alterskontrollen und ein Social-Media-Verbot bis 14 Jahre aus. Dabei ist ihre Argumentation widersprüchlich und irreführend. Die Analyse.
Familienministerin Karin Prien spielt eine wichtige Rolle in der aktuellen Debatte um ein Social-Media-Verbot bis 14 Jahre. Ihr Ministerium hat eine Expert*innen-Kommission für „Kinder- und Jugendschutz in der digitalen Welt“ einberufen. Bis Sommer sollen Fachleute Empfehlungen für eine Strategie der Bundesregierung ausarbeiten. Aber offenbar wollen sich weder Karin Prien noch andere wichtige Politiker*innen in Deutschland so lange gedulden.
Unter anderem Bundeskanzler Friedrich Merz (CDU), Vizekanzler Lars Klingbeil (SPD) und Justizministerin Stefanie Hubig (SPD) haben sich bereits für eine konkrete Maßnahme ausgesprochen: ein Verbot sozialer Medien für alle unter 14 Jahren, begleitet von Alterskontrollen für alle. Das bekräftigen ein Beschluss der Regierungspartei CDU und ein Forderungspapier wichtiger SPD-Politiker*innen.
Die Familienministerin unterstützt diese Pläne, wie ihre jüngste Rede vor dem Bundestag zeigt. Darin sagt sie:
Ich bin sehr froh darüber, dass sich sowohl die CDU in ihren Beschlüssen als auch die SPD in ihrem Diskussionspapier für eine solche Altersgrenze bei 14 Jahren ausgesprochen haben.
In Wissenschaft und Zivilgesellschaft stoßen die Forderungen auf Widerspruch. Organisationen aus unter anderem Kinderschutz, Pädagogik, Datenschutz und Kirche warnen eindringlich vor Social-Media-Verboten und den Alterskontrollen, die unweigerlich notwendig wären, um solche Verbote durchzusetzen. Die Argumente der Kritiker*innen beziehen sich unter anderem auf die Rechts- und Forschungslage, auf Gefahren für Datenschutz und Privatsphäre und auf die Abwägung der Grundrechte auf Schutz, Teilhabe und Information.
Auch die Familienministerin hat in ihrer Bundestagsrede vom 5. März versucht, ihre Position mit Argumenten zu untermauern. Unsere Analyse von vier zentralen Passagen der Rede zeigt jedoch: Die Ministerin argumentiert unsauber. Die von ihr angeführten Aspekte sprechen nicht für ein Social-Media-Verbot, sondern eher dagegen.
1. Der „wissenschaftliche Konsens“ sieht anders aus
Der Familienministerin zufolge haben ihre politischen Forderungen eine wissenschaftliche Grundlage. Sie sagt:
Es ist inzwischen wissenschaftlicher Konsens, dass übermäßige Bildschirmzeit und Social-Media-Konsum bei Kindern und Jugendlichen zum Teil dramatische negative Auswirkungen auf die neurologische Entwicklung, auf die Aufmerksamkeitsspanne, auf die kognitive Flexibilität hat.
Richtig ist: In vielen Studien haben Forschende untersucht, wie sich Bildschirmzeit oder Social-Media-Konsum auf junge Menschen auswirken. Es gibt aber keinen Konsens darüber, dass die Auswirkungen „dramatisch“ sind. Diese Aussage der Ministerin ist irreführend.
Wer einen Eindruck über Konsens oder Dissens in der Wissenschaften bekommen möchte, kann sich sogenannte Meta-Studien anschauen. Dafür sichten Forscher*innen systematisch die Forschungslage und fassen möglichst alle aussagekräftige Studien zu einer Fragestellung zusammen.
Eine solche Meta-Studie zur Bildschirmzeit junger Menschen hat zum Beispiel die Fachzeitschrift Jama Psychiatry im Jahr 2022 veröffentlicht. Hierfür haben Forschende 87 Studien mit rund 160.000 Proband*innen ausgewertet. Das Ergebnis: Bei Kindern unter 12 Jahren gibt es eine „kleine, aber bedeutsame Korrelation“ zwischen Bildschirmzeit und Verhaltensproblemen wie Wut, Angst oder ADHS. Letzteres ist eine Störung, bei der Menschen unaufmerksam, impulsiv und hyperaktiv sein können.
Wichtig ist hier der Unterschied zwischen Kausalität und Korrelation. Korrelation heißt: Die Phänomene hängen zusammen; es ist aber unklar, was die Ursache ist. Vielleicht macht die erhöhte Bildschirmzeit die Kinder tatsächlich aggressiv und ängstlich – vielleicht lenken sich aggressive oder ängstliche Kinder aber auch gerne am Bildschirm ab. Die Meta-Studie kann das nicht beantworten.
Generell hat Bildschirmzeit nur einen losen Bezug zur Forderung nach einem Social-Media-Verbot, denn junge Menschen nutzen Bildschirme noch für viele andere Dinge. Das zeigt die deutsche KIM-Studie. Hierfür befragen Forschende jedes Jahr Kinder zwischen sechs und 13 Jahren und deren Eltern. Die drei häufigsten Freizeit-Aktivitäten der unter 14-Jährigen sind demnach: Freund*innen treffen, Fernsehen, Hausaufgaben. Erst weiter hinten kommen „Videos, Filme und Serien online“ – noch hinter der Aktivität „Draußen spielen“.
Eine Meta-Studie zu den Folgen von Social-Media-Konsum ist im Jahr 2024 bei Jama Pediatrics erschienen. Hierfür haben Forschende 143 Studien mit rund einer Million Proband*innen ausgewertet. Dabei ist ihnen aufgefallen, dass sich die Ergebnisse der Studien teils stark unterscheiden. Sie beklagen einen „Mangel“ an Evidenz und Verallgemeinerbarkeit. In anderen Worten: Es gibt Dissens. Dennoch erkennen die Forschenden eine „kleine“ bedeutsame Korrelation zwischen Social-Media-Nutzung und beispielsweise Angst und Depression.
Starke Schwankungen zeigt auch eine Meta-Studie zur Verbreitung von Social-Media-Sucht in 32 Ländern: Je nach Studie sind demnach fast alle Menschen (82 Prozent) Social-Media-süchtig – oder niemand (0 Prozent). Die Forschenden sprechen von einem „heterogenen Phänomen“ mit einem „Spektrum unterschiedlicher Ausprägungen“.
Zu den neurologischen Folgen sozialer Medien ist die Forschungslage dünn. Für eine 2025 veröffentlichte Meta-Studie haben Forschende nur zwölf Studien gefunden. Darin sahen sie allerdings „überzeugende Beweise“ für messbare Auswirkungen digitaler Medien auf das Gehirn. Das betreffe etwa, wie Menschen Gefühle regulieren und Belohnungen verarbeiten. Es brauche jedoch mehr Forschung, um die Effekte genauer zu verstehen. Das Ziel müsse sein, „eine gesunde Gehirnentwicklung bei Jugendlichen zu unterstützen und gleichzeitig die Vorteile digitaler Technologien für Bildung und soziale Kontakte zu bewahren“.
Unterm Strich lässt sich die Forschungslage also nicht als „dramatisch“ beschreiben, wie die Ministerin behauptet, sondern als vorsichtig. Die Forderung nach einem Social-Media-Verbot lässt sich aus der Forschungslage nicht schlüssig ableiten.
Zu diesem Schluss kam auch die Gelehrtengesellschaft Leopoldina. Die Expert*innen nennen die Forschungslage „unbefriedigend“; die Frage, wie soziale Medien auf das Gehirn einwirken, sei „bislang noch kaum neurowissenschaftlich untersucht“. Dennoch plädieren sie für Vorsicht statt Nachsicht. Sie fordern ein Social-Media-Verbot, stützen sich dabei aber nicht auf die Forschungslage, sondern auf das „Vorsorgeprinzip“ als „ethischen Standard zum Umgang mit Unsicherheit“.
2. Es bleibt schwammig, was das Verbot bewirken soll
Ein wichtiger Prüfstein von staatlichem Handeln ist der Grundsatz der Verhältnismäßigkeit. Ein Social-Media-Verbot muss demnach einen legitimen Zweck verfolgen; es muss geeignet, erforderlich und angemessen sein. Sinnvoll diskutieren lässt sich das nur, wenn klar ist, welches Ziel das Social-Media-Verbot genau verfolgt.
Zum möglichen Ziel eines Verbots stiftet die Familienministerin vor dem Bundestag eher Verwirrung als Klarheit. Verstreut über ihre Rede nennt sie mindestens acht Gefahren für junge Menschen im Netz:
- Auswirkungen „auf die Gehirne“
- Beeinträchtigung von Konzentration und Lernfähigkeit
- Suchtverhalten
- Auswirkungen auf die Entwicklung eines „vernünftigen“ Sozialverhaltens
- Cybergrooming, Sextortion, sexueller Missbrauch
- Deepfakes
- Fake News
- extremistische Indoktrination
Keine der genannten Gefahren beschränkt sich auf soziale Medien. Zum Beispiel gibt es süchtig machende Designs auch in Spielen; Filme und Serien können die Konzentration betreffen; die Anbahnung sexueller Kontakt durch Erwachsene, Grooming genannt, geschieht auch via Messenger. Viele der Gefahren betreffen zudem nicht nur junge Menschen, sondern alle.
Das wirft die Frage auf, warum die Ministerin ausgerechnet ein Social-Media-Verbot für Minderjährige als geeignete Maßnahme befürwortet. Eine klare Verbindung zwischen den genannten Gefahren und dem geforderten Verbot zieht sie nicht. Stattdessen spricht sie von einem „Gesamtkonzept“, zu dem auch die Regulierung von Plattformen gehören soll, Medienbildung und Prävention.
In diesem Gesamtkonzept stechen ein Social-Media-Verbot und Alterskontrollen allerdings besonders hervor: Es sind die einzigen Maßnahmen, für die es neue Gesetze bräuchte; zugleich greifen sie am tiefsten in Grundrechte ein. Umso mehr fällt ins Auge, dass die Ministerin anstelle einer Begründung eine Leerstelle lässt.
3. Technikfolgenabschätzung spricht nicht für Alterskontrollen
Als einen Grund für strengere Regeln führt die Familienministerin „Technikfolgenabschätzung“ an. So nennt man es, wenn Forschende die Chancen und Risiken einer neuen Technologie ausleuchten – bestenfalls, bevor sich die Technologie verbreitet.
Bei sozialen Medien hat das nicht gut geklappt, wie aus Priens Rede hervorgeht. Sie sagt: „Offensichtlich war uns das im Kontext der Einführung von Social Media für Kinder und Jugendliche nicht in dem Maße bewusst, wie es uns hätte bewusst sein müssen.“ Das ist schlüssig: Während ganze Generationen mit sozialen Medien aufwachsen, ist die Forschungslage zu den negativen Folgen unklar.
Nicht schlüssig ist es jedoch, deshalb ein Social-Media-Verbot und Alterskontrollen zu fordern. Die Ministerin argumentiert eher gegen sich selbst, wenn sie sagt: „Technikfolgenabschätzung ist ein wichtiges Instrument, wenn es um die Inverkehrbringung von neuen Technologien geht.“ Denn auch Alterskontrollen sind eine Technologie mit riskanten Folgen. Und ohne sie ließen sich Altersgrenzen für soziale Medien nicht wie gefordert wirksam durchsetzen. Im Gespräch sind digitale Ausweiskontrollen und biometrische Gesichtsscans für Millionen Menschen im Netz.
Genau davor warnen mehr als 400 Forschende aus 29 Ländern eindringlich und fordern einen Stopp entsprechender Gesetzesvorhaben. Die Einführung von Alterskontrollen ohne weitere Forschung sei „gefährlich und gesellschaftlich nicht hinnehmbar“, schreiben sie in einem offenen Brief. Auf dem Spiel stünden „Sicherheit, Privatsphäre, Gleichberechtigung“ und „Autonomie“ aller Menschen.
Auch das Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften hat untersucht, wie sich ein Social-Media-Verbot durchsetzen ließe. Demnach könne Altersfeststellung im Internet „grundsätzlich Sinn machen“, es brauche aber eine breite gesellschaftliche Debatte. Weiter warnt die Studie vor der Gefahr, „dass trotz weitreichender Einschnitte für alle Internetnutzer:innen das Ziel, nämlich das eines besseren Schutzes von Minderjährigen, nicht erreicht wird“.
Im Auftrag der australischen Regierung haben Gutachter*innen Systeme für Alterskontrollen untersucht – mit teils alarmierenden Funden. Die Gutachter*innen berichten von „besorgniserregenden Hinweisen“, dass zumindest manche Anbieter von Alterskontrollen in übermäßigem Eifer Werkzeuge entwickeln, damit Aufsichtsbehörden und Polizei auf erhobene Daten zugreifen können. „Dies könnte zu einem erhöhten Risiko von Datenschutzverletzungen führen, da Daten unnötig und unverhältnismäßig gesammelt und gespeichert werden.“
4. Die „Grundlagen“ der Ministerin passen nicht zum Verbot
Das Fazit der Ministerin am Ende ihrer Rede lautet: „Lassen Sie uns gemeinsam auf empirischer Grundlage und auf Grundlage der Empfehlungen der Expertenkommission der Bundesregierung ein Gesamtkonzept entwickeln“. Aus zwei Gründen ist diese Aussage nicht schlüssig.
- Erstens beruft sich die Ministerin auf „empirische“ Grundlagen, also erfahrungsbasierte Erkenntnisse der Wissenschaft. Ihre Rede hat jedoch gezeigt, dass ihr Verständnis vom wissenschaftlichen Konsens irreführend ist.
- Zweitens beruft sich die Familienministerin auf Empfehlungen der Expert*innen-Kommission. Aber sowohl sie selbst als auch der Kanzler und weitere Kabinettsmitglieder haben schon klar Stellung für ein Social-Media-Verbot bezogen – noch bevor sich die Expert*innen-Kommission selbst dazu äußern konnte. Welches Signal sendet das an die Fachleute?
Ein Social-Media-Verbot mit Alterskontrollen: Die Forderung der Familienministerin passt nicht zu den Grundlagen, auf die sie sich selbst beruft.
Parallel zu den Mühen von Politik und Fachleuten auf Deutschland-Ebene prüft auch die EU-Kommission strengere Regeln für junge Menschen im Netz. Auch sie hat eine eigene Expert*innen-Gruppe einberufen, die ebenso bis zum Sommer Ergebnisse vorlegen soll.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
Umfragen zum Social-Media-Verbot
Wer schlau fragt, bekommt schlaue Antworten
Das ZDF-Politbarometer zeigt eine Mehrheit für ein Social-Media-Verbot in Deutschland. Eine Umfrage des Deutschen Instituts für Wirtschaftsforschung spricht gegen Verbote. Ja, was denn nun? Was wir von Umfragen lernen können und was nicht.
Soll der Staat soziale Medien für Minderjährige verbieten – und sollen alle Nutzer*innen beweisen müssen, dass sie keine Kinder mehr sind? Darum geht es in der international brodelnden Social-Media-Debatte. Australien hat ein solches Social-Media-Verbot seit Dezember. Nachmachen möchten das unter anderem die CDU, Bundeskanzler Friedrich Merz und SPD-Vizekanzler Lars Klingbeil sowie die Staats- und Regierungschef*innen weiterer EU-Länder.
In Umfragen klopfen Meinungsforscher*innen ab, wie Menschen in Deutschland das bewerten. Welche Social-Media-Regulierung ist gut, welche schlecht? Die bisherigen Ergebnisse zeigen: Je differenzierter man fragt, desto differenzierter sind die Antworten.
Mehrheiten für Verbote: Es kommt aufs Alter an
Jüngst hat das Deutsche Institut für Wirtschaftsforschung (DIW) die Ergebnisse einer repräsentativen Umfrage mit 2.685 Menschen aus Deutschland veröffentlicht. Das australische Modell mit einer Altersgrenze von 16 Jahren fällt bei den Befragten durch: Die Mehrheit von 50,4 Prozent lehnt es ab, nur 33 Prozent finden es gut.
Mit einer niedrigen Altersgrenze von 12 Jahren dagegen könnten sich laut DIW die meisten anfreunden: 71 Prozent befürworten das.
Im Widerspruch zur DIW-Umfrage stehen ältere Umfragen des ifo Instituts und des Instituts Insa. Demnach befürworten die meisten Deutschen durchaus ein Verbot bis 16 Jahre. Die Befragten hatten aber nicht die Wahl zwischen mehreren Altersstufen. Eine breite Palette an Altersstufen bekamen dagegen die Befragten durch das Bundesinstitut für Bevölkerungsforschung vorgesetzt. Die meisten (38 Prozent) entschieden sich für 14 Jahre.
14 Jahre ist auch die Grenze, auf die sich jüngst die CDU per Parteitagsbeschluss geeinigt hat. Wichtige SPD-Politiker*innen wollen sie ebenso haben. Hierzu gibt es auch eine Erhebung der Forschungsgruppe Wahlen für das ZDF-Politbarometer: Demnach finden das 81 Prozent der Befragten gut.
Wer nicht weiter bohrt, könnte an dieser Stelle den Eindruck gewinnen: Solange die Altersgrenze nicht zu hoch ist, dürfte ein Social-Media-Verbot bei den meisten Menschen in Deutschland auf Wohlwollen stoßen. Aber das greift zu kurz.
Alterskontrollen für alle: Die Frage, die fast niemand stellt
Ein Social-Media-Verbot allein würde zunächst wenig ändern, denn Altersgrenzen für soziale Medien gibt es schon heute. Viele der größten Plattformen schreiben ein Mindestalter von 13 Jahren vor und löschen Accounts, die mutmaßlich jüngeren Menschen gehören. Das betrifft etwa Instagram oder TikTok. Bei YouTube beträgt das offizielle Mindestalter sogar 16 Jahre. Würde es nach CDU und SPD gehen, dürften Kinder YouTube künftig schon früher legal nutzen als heute.
Ob 12, 14 oder 16 Jahre, der Fokus auf das Alter verkennt den springenden Punkt: die Durchsetzung. Begleitet werden sollen die derzeit diskutierten Social-Media-Verbote nämlich in aller Regel von zuverlässigen Alterskontrollen.
Im Gespräch sind etwa Verfahren, bei denen alle Menschen gegenüber vielen wichtigen Plattformen per Ausweis belegen müssen, dass sie schon alt genug sind. Sonst können sie beispielsweise kein Video auf YouTube liken. Eine häufige Alternative zu Ausweiskontrollen sind biometrische Scans des Gesichts. Auf deren Grundlage soll eine (oft als KI bezeichnete) Software eine Schätzung anstellen. Dabei passieren häufig Fehler.
Solche und weitere Verfahren zur Durchsetzung von Alterskontrollen können sehr invasiv sein. Sie bedeuten nicht nur mehr Frickelei und mehr Hürden für alle Menschen im Netz, sondern greifen auch in die Privatsphäre ein; bergen die Gefahr von Datenschutz-Skandalen – und schließen Hunderttausende Menschen aus, die schlicht keine Papierehaben, um Kontrollen zu meistern. Hunderte Forscher*innen aus Technologie und IT-Sicherheit warnen deshalb eindringlich vor den Folgen von Alterskontrollen.
Das führt zu einer Kernfrage der Social-Media-Debatte: Sind Sie bereit, sich im Internet großflächigen Kontrollen ihrer Ausweispapiere zu unterziehen oder ihr Gesicht scannen zu lassen?
Dieser Aspekt fehlt in den Umfragen vieler Meinungsforscher*innen. Daran gedacht hat zumindest das Institut YouGov im Auftrag des Internet-Branchenverbands eco. Das Ergebnis: Die meisten Befragten wollen solche Kontrollen nicht haben.
- Eine Altersprüfung durch offiziell ausgestellte Dokumente befürworten demnach 44 Prozent.
- Eine KI-basierte Altersschätzung befürworten nur 10 Prozent.
Dennoch wollen die meisten der von YouGov befragten Menschen (82 Prozent) eine Altersgrenze für Social Media. Das legt den Verdacht nahe: Viele finden ein Verbot gut, solange es sie nicht selbst einschränkt.
Breite Mehrheiten für mildere Regulierung
Social-Media-Verbote sind das schärfste Mittel im Versuch, junge Menschen vor digitalen Risiken zu schützen. Sie schränken umfassend Grundrechte wie Teilhabe und Information ein. Es gibt aber auch mildere Mittel. Genau danach hat das DIW gefragt – und reihenweise Zustimmung geerntet. Zum Beispiel:
- „Kinder und Jugendliche sollten besser in Medienkompetenz geschult werden, um soziale Medien sicher nutzen zu können“ – rund 94 Prozent dafür.
- „Eltern sollten stärker darauf achten, wie ihre Kinder soziale Medien nutzen“ – rund 95 Prozent dafür.
- „Für Kinder und Jugendliche sollten nur eingeschränkte Konten (‚Basisaccounts‘) verfügbar sein, bei denen problematische Funktionen – etwa die Kontaktaufnahme durch fremde Personen – deaktiviert sind“ – rund 88 Prozent dafür.
Einen ähnlichen Tenor hatte die Umfrage einer Marktforschungs-Agentur mit 857 Eltern und Kindern, die wir im Januar besprochen haben. Demnach wollten die befragten Kinder, Jugendlichen und Eltern soziale Medien lieber einschränken als verbieten.
Diese Tendenzen zeigen: Es braucht Fragen nach alternativen Ansätzen zu einem Social-Media-Verbot, denn sie machen differenzierte Ansichten in der Bevölkerung überhaupt erst sichtbar.
Soziale Medien: Mehrheit der Deutschen hat differenziertes Bild
Die meisten Menschen in Deutschland sehen offenbar, dass soziale Medien sowohl gut als auch schlecht sein können. Auch das zeigen die Ergebnisse der neuen DIW-Umfrage.
- Risiken sozialer Medien sieht die überwältigende Mehrheit der Befragten. Rund 90 Prozent sagen: „Soziale Medien stellen für Kinder und Jugendliche erhebliche Gefahren dar (zum Beispiel durch Mobbing, sexualisierte Inhalte oder Kontakte mit Fremden).“
- Chancen sozialer Medien sieht eine kleinere, aber immer noch absolute Mehrheit von rund 63 Prozent. Sie sagen: „Soziale Medien bieten Kindern und Jugendlichen wichtige Chancen (zum Beispiel sich auszutauschen, kreativ zu sein oder Zugang zu Informationen und gesellschaftlicher Teilhabe zu erhalten).“
- Sowohl Chancen als auch Risiken erkennt ebenso eine absolute Mehrheit von rund 57 Prozent.
- Nichts als Risiken in sozialen Medien sieht eine Minderheit von rund 19 Prozent, also rund jede*r Fünfte. „Zu dieser Gruppe gehören häufiger Ältere, Lehrkräfte sowie Personen, die soziale Medien nicht nutzen“, ergänzen die DIW-Forschenden.
Das ambivalente Bild der DIW-Umfrage zeigt: Es geht viel Information verloren, wenn Meinungsforschende nur nach Verboten fragen. Solche Zuspitzungen machen Abwägungen unsichtbar, die Menschen durchaus treffen würden, wenn man ihnen die Gelegenheit dazu gibt.
Umfragen sind keine Volksabstimmung
Ein typischer Medienbericht über Meinungsumfragen endet, sobald alle wichtigen Zahlen abgehandelt wurden. In der Folge können die verschiedenen Lager einer Kontroverse die Zahlen als Argument nutzen. Das dürfte auch hier der Fall sein: Das ZDF-Politbarometer gießt Wasser auf die Mühlen der Fans eines Social-Media-Verbots. Die DIW-Umfrage gießt Wasser auf die Mühlen der Kritiker*innen. In beiden Fällen drohen Fehlschlüsse.
Meinungsumfragen messen Meinungen; sie sind keine Volksabstimmungen. In der Social-Media-Debatte können Umfragen Hinweise liefern, welche Maßnahmen Menschen eher akzeptieren oder ablehnen würden. Was aber keine Meinungsumfrage messen kann: Ob eine Regulierung legitim, geeignet, erforderlich und angemessen ist. Dabei sind das die entscheidenden Fragen, an denen sich Regulierungen in einer Demokratie messen lassen müssen.
Wenn es um ein Social-Media-Verbot geht, spielt es dennoch eine große Rolle, wie sehr Menschen es akzeptieren. Denn so ein Verbot trifft alle unmittelbar. Alle müssten sich zu den neuen Hürden und Kontrollen verhalten. Man kann sich entweder fügen und den Ausweis zücken – oder sich widersetzen und die Kontrollen umgehen. Der Erfolg eines Social-Media-Verbots hängt eng damit zusammen, wie Menschen damit umgehen.
Die DIW-Forschenden schlussfolgern:
Die Ergebnisse verdeutlichen, dass eine wirksame Regulierung der Social-Media-Nutzung für Kinder und Jugendliche nicht nur auf pauschale Verbote setzen sollte. Differenzierte Maßnahmenbündel werden von großen Teilen der Bevölkerung akzeptiert und haben daher größere Chancen auf Umsetzung.
Für ein einheitliches Social-Media-Verbot mit flächendeckenden Alterskontrollen bräuchte es neue Gesetze in der EU. Keine neuen Regulierungen bräuchte es dagegen für mildere Mittel. Denn dafür gibt es schon das relativ neue Gesetz über digitale Dienste (DSA). Gerade läuft sogar ein Verfahren gegen TikTok, weil die EU-Kommission findet: das „süchtig machende Design von TikTok verstößt gegen den DSA“.
Welchen Weg wollen Staaten einschlagen? Mit dieser Fragen beschäftigen sich gerade gleich zwei Expert*innen-Kommissionen: Sowohl auf Deutschland-Ebene als auch auf EU-Ebene sollen Fachleute bis Sommer Antworten zur Social-Media-Debatte vorlegen.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
Forschende schlagen Alarm: Staaten sollen Social-Media-Verbote stoppen
Regierungen und Parlamente weltweit sollen ihre Pläne für Social-Media-Verbote nicht weiter verfolgen. Das fordern mehr als 400 Forscher*innen aus 29 Ländern in einem offenen Brief. Sie wollen zuerst prüfen, ob Alterskontrollen überhaupt wirksam und sicher sind.
Nachdem Australien im Dezember ein Social-Media-Verbot für unter 16-Jährige eingeführt hat, wollen zahlreiche Staaten das auch. In Deutschland läuft die Debatte ebenso heiß. Jetzt wollen Hunderte Forscher*innen aus den Bereichen Technologie, IT-Sicherheit und Privatsphäre die Notbremse ziehen.
In einem offenen Brief warnen sie eindringlich vor den negativen Folgen eines Social-Media-Verbots und den damit verbundenen flächendeckenden Alterskontrollen im Netz. Es fehle ein klares Verständnis dafür, was diese Kontrollen anrichten können – für „Sicherheit, Privatsphäre, Gleichberechtigung“ und die „Autonomie“ aller Menschen.
Die Einführung von Alterskontrollen ohne weitere Forschung sei „gefährlich und gesellschaftlich nicht hinnehmbar“, schreiben die Forscher*innen auf Englisch. Sie fordern deshalb ein Moratorium für Social-Media-Verbote. Das heißt: Regierungen und Parlamente sollen ihre laufenden Vorhaben stoppen und vorerst keine Verbote erlassen.
Unterschrieben haben das Wissenschaftler*innen aus 29 Ländern, darunter sind viele EU-Staaten, die USA, UK, Kanada, Südkorea und die Türkei. Aus Deutschland haben sich rund 70 Fachleute dem Aufruf angeschlossen. Der offene Brief passt zu einem fachübergreifenden Chor aus Warnungen: Auch Expert*innen aus unter anderem den Bereichen Kinderschutz, Pädagogik und Menschenrechten haben Bedenken gegenüber einem Social-Media-Verbot oder lehnen es ab.
Nachteile von Alterskontrollen gewiss, Vorteile ungewiss
Gleich zu Beginn des Offenen Briefs stellen die Forscher*innen klar: „Wir teilen die Sorgen über die negativen Auswirkungen, die schädliche Online-Inhalte auf Kinder haben.“ Aber sie befürchten, dass Regulierung ohne sorgfältige Abwägung der Risiken „mehr Schaden als Nutzen“ bringen könnte.
- Erstens: Es ist nicht sicher, ob ein Social-Media-Verbot die erhofften Vorteile bringt. Die Forschenden mahnen, es gebe keine wissenschaftlichen Belege dafür, dass ein Verbot positive Auswirkungen auf die psychische Gesundheit von Minderjährigen hätte. Umgekehrt brächten soziale Medien positive Effekte: mehr soziale Kontakte, weniger Einsamkeit, sichere Räume für marginalisierte Gruppen. Alterskontrollen seien „keine Garantie dafür, dass Minderjährige keine schädlichen Online-Inhalte abrufen“. Stattdessen würden Betroffene die Kontrollen umgehen oder zu unregulierten Alternativen abwandern.
- Zweitens: Es ist sicher, dass Alterskontrollen Nachteile bringen. So musste die Team-Software Discord kurz nach Einführung von Alterskontrollen ein Datenleck eingestehen: Demnach hatten Kriminelle wohl Zugriff auf 70.000 Ausweisdaten von Menschen, die Discord ihr Alter nachgewiesen haben. Solche Nachweise mit amtlichen Dokumenten würden außerdem Menschen ausschließen, warnen die Forschenden, etwa undokumentierte Einwandernde, Asylsuchende, Reisende aus dem Ausland – oder Nutzer*innen, die Aufgrund einer Leseschwäche die neuen Hürden nicht überwinden können. Alternative Verfahren, in denen Software das Alter von Nutzer*innen einschätzt, sogenannte KI, seien „bekanntlich fehleranfällig“.
- Drittens: Alterskontrollen schaffen eine gefährliche, zentralisierte Infrastruktur. „Wer festlegt, welche Altersschranken gelten sollen, und wer sie durchsetzt, erhält einen enormen Einfluss darauf, welche Inhalte im Internet für wen zugänglich sind“, warnen die Forschenden. In den falschen Händen könnte diese Infrastruktur auch für Zensur genutzt werden, etwa für queere Inhalte. Gerade bei technologisch komplexen Lösungen könnten Abhängigkeiten zu wenigen Tech-Konzernen wie Google oder Apple entstehen.
Appell für Regulierung statt Verbote
Mit Blick auf Alterskontrollen kommen die Forscher*innen deshalb zum Fazit: „Der Einsatz ist nur dann gerechtfertigt, wenn nachgewiesen wird, dass der Nutzen die möglichen Schäden deutlich überwiegt.“ Es brauche vertiefende Forschung, bevor Staaten entsprechende Regeln flächendeckend ausrollen.
Fürs Erste regen die Forschenden an, sich lieber den Ursachen zu widmen. Konkret nennen sie algorithmisch optimierte Feeds sozialer Medien. Durch ihre enorme Sogwirkung fällt es vielen Menschen schwer, das Handy lange aus der Hand zu legen. Die Regulierung von Feeds wäre den Forschenden zufolge unmittelbarer wirksam und würde Plattformen für Kinder und Erwachsene gleichermaßen sicherer machen.
Solche suchtfördernden Mechanismen bei TikTok hat etwa die EU-Kommission bereits festgestellt, zumindest vorläufig. Grundlage ist das Gesetz über digitale Dienste (DSA). Das laufende Verfahren kann sich allerdings in die Länge ziehen, und TikTok dürfte sich juristisch wehren. Zugleich hat die EU-Kommission ein Expert*innen-Gremium rund um Alterskontrollen einberufen, das bis Sommer Ergebnisse vorlegen soll.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize.Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
Klarnamenpflicht schadet der Demokratie
Merz will eine Klarnamenpflicht im Netz. Doch die verschlechtert das Leben vieler Menschen und bedroht gleich mehrere Grundrechte. Der Kanzler wäre gut beraten, die Forderung sofort wieder einzupacken – und stattdessen vor der eigenen Haustüre zu kehren. Ein Kommentar.
Nun hat also die uralte Forderung nach einer Klarnamenpflicht im Netz mit dem Bundeskanzler die höchste Ebene deutscher Politik erreicht. Besser wird die Forderung dadurch nicht. Eine Klarnamenpflicht ist nicht wirkungsvoll, sondern autoritär, falsch und extrem gefährlich für gleich mehrere Grundrechte.
Mit der derzeitigen Debatte um ein Social-Media-Verbot für Jugendliche, die vermutlich mit flächendeckenden Ausweiskontrollen umgesetzt würde, ergibt sich allerdings gerade ein Möglichkeitsfenster für diese Art der Einschränkung des freien Internets. Dabei ist die Debatte sogar schon soweit entgleist, dass sogar die im Gesetz als freiwillig festgeschriebene digitale Brieftasche der EU von Mitgliedern der Bundesregierung jetzt als Pflicht-Instrument zur Identifizierung gefordertwird.
Dabei ist eine Klarnamenpflicht im Internet und sozialen Netzwerken bislang als Unterdrückungsinstrument von autoritären Ländern wie China bekannt.
Für freie und demokratische Gesellschaften sind Anonymität und Pseudonymität im Internet jedoch unerlässlich. Dafür gibt es zahlreiche Gründe. Und nicht umsonst ist die Anonymität im Netz in Deutschland gesetzlich festgeschrieben.
Klarnamenpflicht verschlechtert das Leben vieler Menschen
Wer eine Klarnamenpflicht im Internet oder sozialen Netzwerken einführen will, verschlechtert das Leben vieler Menschen. Wir haben schon vor Jahren zahlreiche fiktive, aber alltägliche Beispieleaufgeschrieben, die zeigen, dass Pseudonymität und Anonymität dem Schutz der Grundrechte und der freien Entfaltung und Entwicklung von Menschen dienen.
Die Möglichkeit unter einem erfundenen Namen im Internet aufzutreten, ist elementar für die Pressefreiheit, die freie Entfaltung der Persönlichkeit, die Meinungsfreiheit, die Freiheit der Kunst, die informationelle Selbstbestimmung und die Religionsfreiheit. Wir alle brauchen anonyme Orte im Netz. Das trifft nicht nur für marginalisierte Gruppen und Minderheiten zu, aber für diese besonders.
Die Befürworter:innen der Klarnamenpflicht ignorieren die demokratische Notwendigkeit von Anonymität und Pseudonymität. Sie bleiben aber auch den Beweis schuldig, dass diese schwerwiegende Maßnahme überhaupt etwas bringt. Es ist nämlich alles andere als wissenschaftlich gesichert, dass durch eine Klarnamenpflicht der Diskurs befriedet wird.
Die Idee hinter der Forderung ist die Annahme, dass Menschen „mit offenem Visier“ zurückhaltender kommunizieren würden. Dafür gibt es wenig Belege. Im Gegenteil gibt es Studien, die zeigen, dass anonyme Nutzer:innen weniger aggressiv kommunizieren und solche die zeigen, dass Rassisten ganz offen hetzen.
Oftmals spielen Umfeld, Kultur und wirksame Moderation auf den jeweiligen Plattformen die entscheidende Rolle, wie diskutiert wird und wie Nutzer:innen auftreten. Dort wo Nutzer:innen selbst bestimmen können, wen sie aus ihrer Kommunikation ausschließen wollen, wird der Diskurs besser.
Es gibt zahlreiche Beispiele für Orte im Netz, in denen Menschen anonym oder pseudonym, aber vollkommen zivilisiert, achtsam und geregelt miteinander kommunizieren.
Rechtsdurchsetzung statt neuer Einschränkungen
Die Bundesregierung sollte nicht mit diesem gefährlichen Instrument gegen die Bevölkerung vorgehen. Sie sollte stattdessen das EU-Gesetz über digitale Dienste (DSA) gegen Plattformen durchzusetzen und gegen Plattformen vorgehen, wenn diese gegen EU-Gesetze verstoßen.
Man könnte den Kampf gegen Hass und Hetze in Form von gut ausgebildeten Polizeien und Staatsanwaltschaften unterstützen und Möglichkeiten schaffen, gegen strafbare Formen der Kommunikation einfacher und besser vorzugehen.
Schlüsselfertiges autoritäres Haus für die AfD
Was früher noch eine eher hypothetische Warnung von Bürgerrechtlern war, ist heute leider die neue Realität. Was passiert eigentlich, wenn wir autoritäre Instrumente in einer Demokratie schaffen, die dann in die Hände der Falschen fallen? Genau vor diesem Problem stehen wir.
Die gesichert rechtsextreme AfD ist kurz davor, stärkste Partei zu werden. Eine Klarnamenpflicht würde eine mögliche Absicherung der Macht der AfD unterstützen, wenn die Rechtsradikalen an die Regierung kommen. Man baut den Zerstörern der Demokratie unnötigerweise ein schlüsselfertiges Haus, das die diese gleich beziehen können – anstatt ihnen Steine in den Weg zu legen, wo man nur kann.
Kritik nur noch mit Nummernschild?
Vielleicht sollte Friedrich Merz zunächst bei sich selbst anfangen. Er könnte zum Beispiel noch heute aufhören, auf der Hass- und Hetzplattform X zu posten. Denn dort findet genau der vergiftete Diskurs statt, der nun kritisiert wird – er wird dort durch den Eigentümer Elon Musk sogar noch aufgeheizt und befeuert. Wer als Bundeskanzler so einer toxischen Plattform durch die eigene Anwesenheit Relevanz und Seriosität verleiht, sollte von gepflegten demokratischen Diskursen besser schweigen.
Merz hat zudem wenig verstanden von der demokratischen Wichtigkeit anonymer Kommunikation, wenn er die Klarnamenpflicht auf sich selbst bezieht und aus seiner privilegierten, mächtigen Rolle als Bundeskanzler eine Zwangsoffenlegung der Namen aller Menschen fordert, die „sich sich kritisch mit unserem Land und unserer Gesellschaft auseinandersetzen.“ Kritik nur noch mit Nummernschild, oder wie ist das zu verstehen?
In Merzens Kopf schwirrt vermutlich herum, dass er als Bundeskanzler öfter einmal Gegenstand von Beleidigungen ist. Die kann er allerdings mit der ganzen Macht eines Bundeskanzlers und der Unterstützung des Bundeskriminalamts bekämpfen. Aber Privilegien und die damit verbundene Verantwortung zu verstehen, war offenbar noch nie Sache eines Kanzlers, der Privatflugzeuge fliegt, aber sich zur Mittelschicht zählt.
Merz befeuert selbst die verrohte Debattenkultur
Die ohne Frage schlechter werdende Diskurskultur, die gesellschaftliche Verrohung und das feindliche Klima hängen unmittelbar mit dem Aufstieg der AfD und ihren Narrativen zusammen. Durch permanente Diskursverschiebung und anhaltende Abwertung von Menschen verschieben die Rechtsextremen die Grenzen des Sagbaren und ermutigen Menschen zu hetzen und Grenzen zu überschreiten.
Wenn ein Friedrich Merz selbst von „kleinen Paschas“ über muslimische Jugendliche redet oder davon, dass Geflüchtete einem die Zahnarzttermine wegnehmen, dann ist dies ein Ausdruck eben genau jener Entgrenzung, die wiederum andere motiviert auch entgrenzt zu kommunizieren.
Wer also Hass und Hetze im Netz verringern will, der sollte sich selbst mit Menschenfeindlichkeit und Diskriminierung zurückhalten – und lieber ganz konkret die AfD und ihre Diskurse bekämpfen statt diese in die demokratische Mitte zu heben und zu normalisieren.
Markus Reuter recherchiert und schreibt zu Digitalpolitik, Desinformation, Zensur und Moderation sowie Überwachungstechnologien. Darüber hinaus beschäftigt er sich mit der Polizei, Grund- und Bürgerrechten sowie Protesten und sozialen Bewegungen. Für eine Recherchereihe zur Polizei auf Twitter erhielt er 2018 den Preis des Bayerischen Journalistenverbandes, für eine TikTok-Recherche 2020 den Journalismuspreis Informatik. Bei netzpolitik.org seit März 2016 als Redakteur dabei. Er ist erreichbar unter markus.reuter | ett | netzpolitik.org, sowie auf Mastodon und Bluesky. Kontakt: E-Mail (OpenPGP). Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
Australisches Modell: „Ein Social-Media-Verbot macht den Jugendschutz schlechter“
Seit Australien Minderjährige aus sozialen Medien aussperrt, vergeht hier keine Woche ohne Forderungen nach ähnlichen Verboten. Im Interview warnt Medienrechtler Stephan Dreyer: Die politische Debatte habe sich von Forschung und Rechtslage entkoppelt.
Bis zu ihrem 16. Geburtstag dürfen Kinder und Jugendliche in Australien keine Accounts auf Instagram, TikTok, YouTube oder Reddit haben. Seit dem 10. Dezember 2025 dürfen sie dort nichts liken, kommentieren oder gar selbst hochladen. Inhalte hinter einer Log-in-Schranke können sie sich nicht anschauen. Außer natürlich sie umgehen das Verbot mit simplen Werkzeugen wie VPN-Diensten.
Dieses australische Modell fordern inzwischen auch führende Politiker*innen in Deutschland und Europa. Zu den prominenteren Befürwortern gehört der französische Präsident Emmanuel Macron. Ende Januar hat ein französisches Gesetz die erste Hürde in der Nationalversammlung genommen, dem Unterhaus des Parlaments. Ähnliche Vorstöße gibt es auch in Spanien, Griechenland und Österreich.
In Deutschland hat die Bundesregierung zunächst eine Expert*innen-Kommission eingerichtet. Sie soll „Schritte für einen effektiven Kinder- und Jugendmedienschutz prüfen“. Dennoch ist die Debatte um ein Verbot bereits heißgelaufen. Sobald einzelne deutsche Politiker*innen das Social-Media-Verbot befürworten, machen Nachrichtenmedien daraus eine Schlagzeile.
Währenddessen setzt die EU-Kommission bereits bestehende Jugendschutz-Regeln weiter um. Jüngst hat sie deshalb ein Verfahren gegen TikTok gestartet. Im Visier: Das süchtig machende Design der Plattform, deren algorithmisch sortierte Feeds für ihre Sogwirkung bekannt sind. Grundlage ist das Gesetz über digitale Dienste (DSA), das darauf abzielt, Plattformen so zu gestalten, dass Kinder und Jugendliche dort sicherer unterwegs sind.
Ein aufmerksamer Beobachter der Politik rund um Jugendschutz im Netz ist der Medienrechtler Stephan Dreyer. Am Leibniz-Institut für Medienforschung beschäftigt er sich damit, was es heißt, mit digitalen Medien aufzuwachsen. Im Interview erklärt er, warum nationale Social-Media-Verbote in der EU auf tönernen Füßen stehen – und warum er ein Verbot für Minderjährige trotzdem kommen sieht.
„Es geht um die mentale Krise der Jugend“
Stephan Dreyer, warum wollen alle Social Media für Minderjährige verbieten?
Das Thema kocht gerade global hoch. Zumindest medial wird kolportiert, dass wir eine mentale Krise der Jugend hätten. Demnach sind soziale Medien im schlimmsten Fall an dieser Krise schuld, im besten Fall sollen sie eine Mitschuld tragen. Als erstes ist Australien vorgeprescht. Seit dem 10. Dezember gibt es dort ein Social-Media-Verbot für unter 16-Jährige. Seitdem gibt es viele ähnliche Vorstöße, auch in Europa. Was mich daran überrascht, ist, wie entkoppelt der politische Diskurs von Rechtslage und Forschungslage stattfindet.
Wie ist denn die Forschungslage?
Komplex. Es ist unglaublich schwer, Mediennutzung als kausale Ursache psychischer Erkrankungen nachzuweisen. Es verdichten sich allerdings Hinweise, dass bestimmte Nutzungsformen mit bestimmten Erkrankungen zusammenhängen. Zum Beispiel hängt negatives Körperbefinden stark zusammen mit dem sozialen Vergleich auf Social Media. Ein anderes Beispiel sind körperliche Beeinträchtigungen durch Schlafmangel, wenn Kinder und Jugendliche spät abends soziale Medien nutzen. Studien zeigen zwar die Zusammenhänge, aber wir wissen nicht, ob sie kausal sind. Andererseits hat der Staat auch eine Vorsorgeaufgabe, was das gute Aufwachsen von Kindern angeht.
Ist das australische Modell eine gute Vorsorge?
Das wissen wir nicht. Es ist bisher nichts weiter passiert, als dass sich Plattform-Anbieter an das neue Gesetz gehalten und mehrere Millionen Accounts gelöscht und deaktiviert haben. Von einem Erfolg des Gesetzes lässt sich deshalb nicht sprechen. Denn es geht ja um die mentale Krise der Jugend. Bis wir hierzu Ergebnisse sehen, brauchen wir jede Menge gute Forschung und auch ein bisschen Zeit.
Nationales Social-Media-Verbot „nicht anwendbar“
EU-Staaten wie Frankreich, Österreich, Spanien und Griechenland wollen nicht warten. Sie wollen das australische Modell. Und zwar sofort. Geht das?
Es gibt drei Hürden. Die erste ist die Frage, ob Mitgliedstaaten überhaupt ein tatsächlich anwendbares Social-Media-Verbot für Minderjährige einführen können. Das hängt mit dem bestehenden Europarecht zusammen. Dafür muss man in den Digital Services Act (DSA) schauen, der als Verordnung unmittelbar in allen Mitgliedstaaten gilt. Er ist vollharmonisierend, das heißt, er soll den unmittelbaren und abschließenden Rechtsrahmen für Plattform-Governance in der ganzen EU darstellen. Mitgliedstaaten haben also keine Spielräume, nationale Vorschriften für Online-Plattformen zu erlassen, die die gleichen Ziele wie der DSA verfolgen.
Bevor wir über die anderen beiden Hürden sprechen – habe ich das richtig verstanden, ein einzelner EU-Staat darf gar kein nationales Social-Media-Verbot einführen?
Doch. Das Gesetz darf beschlossen werden. Aber es ist nicht anwendbar.
Man darf das Gesetz haben, aber nichts damit machen?!
Genau. Der DSA hat als vollharmonisierendes EU-Recht sogenannten Anwendungsvorrang. Die Frage ist aber, was geschieht, wenn ein nationaler Gesetzgeber dennoch behauptet, das eigene Gesetz sei anwendbar. Und wenn Behörden dennoch anfangen, das Gesetz zu vollziehen. Dann müssten sich die Betroffenen – zum Beispiel Online-Plattformen – erst einmal wehren, und sagen: Das Gesetz ist doch nicht anwendbar. Oder aber sie fügen sich.
Es wäre nicht das erste Mal, dass so etwas passiert. Auch das NetzDG in Deutschland war eklatant europarechtswidrig. Es wurde dennoch beschlossen, in Teilen umgesetzt und später durch einen neuen Gesetzsakt abgeschafft. Es hat den ganzen Lebenszyklus eines Gesetzes durchlaufen.
„Schwere Eingriffe in die Teilhabe- und Kommunikationsrechte“
Als Nicht-Jurist kann ich sagen, das ist verwirrend.
Es kann noch verwirrender werden. Denkbar sind Regulierungen, die Plattformen nicht direkt adressieren, aber dennoch praktisch dazu führen, dass Minderjährige bis zu einer Altersgrenze keine Social-Media-Accounts haben dürfen. Das schafft noch mehr Unklarheit, ob der Anwendungsvorrang des DSA eigentlich umgangen wird oder nicht. Ich weiß aber nicht, ob wir in diese Verästelungen hineingehen wollen.
Lieber nicht. Ich bin noch am verarbeiten, dass sich Mitgliedstaaten sehenden Auges über EU-Recht hinwegsetzen könnten. Was ist das EU-Recht wert, wenn Staaten am Ende tun und lassen, was sie wollen?
Das ist, was mir Sorgen macht. Wenn Mitgliedstaaten sagen: Es gibt einen Rechtsrahmen, aber der ist uns egal, dann wirft das die Frage auf, ob man sich überhaupt noch an das Recht halten muss. Ich frage mich, welches Signal das senden soll.
Wie lautet denn die zweite Hürde für nationale Social-Media-Verbote in der EU?
Die zweite große Hürde ist das Herkunftslandsprinzip. Selbst, wenn man um den Anwendungsvorrang herumkommt oder ihn ignoriert, muss sich ein Anbieter nur an die nationalen Vorgaben des EU-Landes halten, in dem er seine Niederlassung hat. Bei den meisten Social-Media-Anbietern ist das Irland. Das heißt, sie müssen sich an irisches Recht halten.
Also solange Irland kein Social-Media-Verbot einführt, könnten Plattformen die Aufsichtsbehörden anderer Länder einfach abblitzen lassen. Verstanden. Und die dritte Hürde?
Das ist das Verhältnismäßigkeitsprinzip, dem jedes Gesetz genügen muss. Hier sind mehrere Fragen zu klären. Erfüllt das Gesetz einen legitimen Zweck? Klar ist Jugendschutz ein legitimer Zweck. Aber ist ein Social-Media-Verbot bis zu einer bestimmten Altersgrenze wirklich erforderlich, um diesen Zweck zu erreichen?
… ist es das?
Hier ist die empirische Evidenz widersprüchlich. Einerseits gibt es die beschriebenen Zusammenhänge zwischen Social-Media-Nutzung und Beeinträchigungen der psychischen Gesundheit. Andererseits bringen soziale Medien für Minderjährige gewichtige Vorteile mit sich: Kommunikation, Information, Austausch mit Peer Groups.
Das wirft auch die Frage nach der Zumutbarkeit eines Social-Media-Verbot auf. Wir sprechen von schweren Eingriffen in die Teilhabe- und Kommunikationsrechte von Minderjährigen. Wenn es ein für den Zweck ebenso effizientes, milderes Mittel gibt, dann muss man das mildere Mittel wählen.
„Man steht vor einer Weggabelung“
Mildere Mittel hat die EU mit dem DSA geschaffen. Betroffene Anbieter müssen demnach prüfen, welche Risiken ihre Dienste für Minderjährige haben und diese Risiken mindern. Aber das scheint die Fürsprecher*innen des Social-Media-Verbots überhaupt nicht zu interessieren. Ist mit dem DSA etwas nicht in Ordnung?
Aus Governance-Sicht bietet der DSA einen schönen Rechtsrahmen. Minderjährige werden nicht ausgeschlossen, aber Plattformanbieter sind laut Artikel 28 DSA dazu verpflichtet, altersangemessene Angebote zu gestalten. Sie müssen Funktionen und Inhalte altersgerecht anbieten. Mit Blick auf die Grundrechte von Kindern und Jugendliche ist das genau, was wir wollen.
Also kann der DSA alle Sorgen lösen?
Das wissen wir noch nicht. Der DSA greift erst seit Feburar 2024. Es hat nochmal ein halbes Jahr gedauert, bis die EU-Kommission handlungsfähig geworden ist. Erst seit September 2024 gibt es Verfahren gegen Plattformen. Aber was dabei genau passiert, wissen wir nicht. Die EU-Kommission liefert hier leider kaum Transparenz. Ich kann verstehen, wenn Menschen sagen: Sie sehen nicht, dass etwas passiert. Es ist noch viel Luft nach Oben bei der Umsetzung von Artikel 28.
Das heißt, man steht vor einer Weggabelung. Entweder man sagt, wir müssen den Vollzug des geltenden Rechts stärker machen. Hier gab es nun gerade letzten Freitag die Mitteilung der EU-Kommission, dass sie in Bezug auf TikTok Verstöße gegen den DSA festgestellt hat. Oder man sagt: Wir müssen jetzt verbieten.
Wer den Weg des Social-Media-Verbots wählt, hat diese großen Hürden vor sich. Warum tun Verbots-Befürworter wie Emmanual Macron oder Spaniens Ministerpräsident Pedro Sánchez so, als würden diese Hürden nicht existieren?
Ich kenne die Beweggründe im Einzelnen nicht. Es kann sein, dass Regierungen mit ihren Forderungen Handlungsfähigkeit und Handlungswillen beweisen wollen. Sie könnten den Eindruck erwecken wollen, Probleme anzupacken. Die Vorstöße könnten auch Probebohrungen sein, um zu prüfen, wie die Außenwelt reagiert. Es ist aber auch möglich, dass die Mitgliedstaaten vorpreschen, um die EU-Kommission und den EU-Gesetzgeber unter Zugzwang zu setzen.
„Mögliche Mehrheiten“ für EU-weites Verbot
Könnte denn die EU selbst ein Social-Media-Verbot für Minderjährige einführen?
Ja. Sie könnte mit einer neuen Verordnung ältere Vorgaben überschreiben. Das hätte auch Folgen für den DSA. Anbieter könnten ihre bisherigen Vorsorgemaßnahmen für unter 16-Jährige einstellen. Sie müssten sich um die Jüngeren keine Gedanken mehr machen – denn die dürften laut neuem Gesetz nicht mehr auf ihren Plattformen sein. Ein Social-Media-Verbot macht den Jugendschutz auf Plattformen schlechter.
Will die EU das?
Spätestens seit November 2025 zeichnet sich ab, dass alle drei Akteure der EU zu einem Social-Media-Verobt für Minderjährige bereit wären. Wir sehen, dass es im Rat und im EU-Parlament mögliche Mehrheiten dafür gibt. Kommissionspräsidentin Ursula von der Leyen hat im Herbst gesagt, dass sie Alterskontrollen zumindest prüfen will .
Wie wahrscheinlich ist ein Social-Media-Verbot für Minderjährige in der EU?
Ich bin der Meinung, dass wir nicht mehr über das Ob sprechen, sondern nur noch über das Wie.
Gerade sind Kommission, Parlament und Rat in den finalen Verhandlungen zur CSA-VO, der „Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern“, bekannt als Chatkontrolle. Darin vorgesehen sind – je nach Ausgestaltung – auch strenge und verpflichtende Alterskontrollen für App-Stores und „interpersonelle Kommunikationsdienste“. Also Plattformen mit Chatfunktion. Kurzum, es kann auf Alterskontrollen für die meisten sozialen Medien hinauslaufen. Wo rutschen wir da gerade hinein?
Die Alterskontrollen stehen seit 2022 im Entwurf der EU-Kommission, doch die politische Diskussion hat sich allein an der Chatkontrolle entzündet. Jetzt ist die Zeit knapp, um noch viel dagegen zu tun. Es ist möglich, dass die Verhandlungen schon im Herbst abgeschlossen sind. Es kann also gut sein, dass wir schon sehr bald ein Gesetz haben, das strenge Alterskontrollen für viele Anbieter in der EU vorschreibt.
„Wir reden von einer Diskriminierungs-Technologie“
Dann würde nur noch eine feste Altersgrenze für soziale Medien fehlen, und das australische Modell wäre komplett. Welche Folgen hätten solche Alterskontrollen für Europa?
Ein Gesetz für umfassende Altersüberprüfungen wäre erst der Anfang der Probleme. So eine Vorschrift ist vergleichsweise schnell geschrieben. Dann kommt die Umsetzung. Australien hat einen mehr als 1.000-seitigen Bericht darüber vorgelegt, wie unterschiedlich intrusiv verschiedene Technologien zur Altersüberprüfung sind, welche auch negativen Effekte sie haben können, welche Akzeptanzprobleme in der Bevölkerung sie mit sich bringen.
Was bedeutet das für uns?
Wenn die Altersüberprüfungen kommen, werden wir uns noch umschauen. Und das meine ich nicht als Drohung. Wir reden von einer Diskriminierungs-Technologie, denn sie soll Menschen nach ihrem Alter diskriminieren. Und immer, wenn man so etwas tut, gibt es einen Fallout, also Fehler in beide Richtungen.
Es wird Menschen geben, die zu jung sind, aber die Altersprüfungen umgehen, und Menschen, die alt genug sind, aber keine Möglichkeit haben, das dem System zu beweisen. Das ist eine Standardsituation der Technikfolgenabschätzung. Je flächendeckener eine Technologie eingeführt wird, desto größer der Fallout.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
> Die Chefin des #Verbraucherzentrale @Bundesverband stellt sich gegen ein #Mindestalter für #TikTok #Instagram und andere #SocialMedia-Dienste. Stattdessen fordert Ramona Pop einzelne Funktionen zu verbieten.
09.02.2026, @fsteiner für #Spiegel #Netzwelt: https://www.spiegel.de/netzwelt/ramona-pop-verbraucherschuetzerin-spricht-sich-gegen-social-media-verbot-aus-a-ce7d265d-bdc2-47fa-91e0-024b15d73961
Kontext: » The Good Lobby« titelte im Okt. 2025: »#Meta’s #DigitalMajorityAge is a distraction to avoid #compliance«:
https://thegoodlobby.eu/metas-digital-majority-age-is-a-distraction-to-avoid-compliance/#DSA #Datenschutz #AgeVerification #Kinderschutz #Alterskontrollen
-
Trilog zu Alterskontrollen: Warnung vor „Ausweispflicht für weite Teile des Internets“
Sowohl der Rat als auch das EU-Parlament haben Nein gesagt zur verpflichtenden Chatkontrolle. Aber die umstrittene Verordnung birgt weitere Risiken für digitale Grundrechte – und zwar flächendeckende Alterskontrollen. Worüber Kommission, Parlament und Rat jetzt verhandeln.
Es war ein merkliches Aufatmen Ende vergangenen Jahres. Nach mehr als drei Jahren Verhandlungen hatten sich Vertreter*innen der EU-Staaten im Rat auf eine gemeinsame Position zur sogenannten Chatkontrolle geeinigt, einem der weitreichendsten Überwachungsprojekte der EU.
Hinter der Chatkontrolle stecken Pläne der EU-Kommission, Anbieter von Messengern wie Signal oder WhatsApp auf Anordnung dazu verpflichten zu können, die Kommunikation von Nutzer*innen zu durchleuchten. Vertrauliche Nachrichten müssten sie dann in großem Stil nach sogenannten Missbrauchsdarstellungen durchsuchen – ein fundamentaler Angriff auf sicher verschlüsselte Kommunikation. Anlass ist der Vorschlag für eine Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern, kurz: CSA-VO.
Fachleute aus unter anderem Kinderschutz, Wissenschaft, Zivilgesellschaft sind gegen das Vorhaben Sturm gelaufen. Mit dem Nein von Rat und EU-Parlament dürfte die Chatkontrolle vom Tisch sein. Kaum beachtet geblieben ist dabei jedoch ein weiteres Überwachungsvorhaben im Vorschlag der Kommission, und zwar die Einführung von Alterskontrollen.
Die EU-Kommission möchte Anbieter nämlich auch dazu verpflichten dürfen, das Alter ihrer Nutzer*innen zu überprüfen. Betroffen sind Dienste, die Erwachsene nutzen können, um sexuelle Kontakte zu Minderjährigen anzubahnen. Das nennt sich Grooming.
Alterskontrollen laufen oftmals auf invasive Maßnahmen heraus. Nutzer*innen müssten dann zum Beispiel ihr Gesicht biometrisch vermessen lassen, damit eine Software ihr Alter schätzt, oder mithilfe von Dokumenten wie dem Ausweis belegen, dass sie erwachsen sind. Mindestens würde es damit für Millionen Nutzer*innen schwerer, sich frei im Netz zu bewegen. Wenn es nicht gelingt, solche Kontrollen sicher zu gestalten, drohen Datenschutz-Verletzungen und massenhafte Überwachung.
Kommission, Rat und Parlament haben teils widersprüchliche Positionen zu den Alterskontrollen. Aktuell verhandeln sie im sogenannten Trilog über die Verordnung – und damit auch über die Zukunft von Alterskontrollen in der EU. Wir liefern die Übersicht über die zentralen Positionen und die Risiken dahinter.
Das will die EU-Kommission
Der Vorschlag der EU-Kommission sieht eine Verpflichtung zu Alterskontrollen bei „interpersonellen Kommunikationsdiensten“ vor, einfach ausgedrückt: Anbietern mit Chatfunktion.
Sie sollen zunächst selbst das Risiko für Grooming einschätzen, also ob ihre Dienste zum Zweck des „sexuellen Kindesmissbrauchs“ eingesetzt werden könnten. Dabei spielt etwa eine Rolle, wie viele Kinder den Dienst überhaupt verwenden, wie leicht sie von Erwachsenen auf der Plattform kontaktiert werden können und welche Möglichkeiten es gibt, solche Kontakte zu melden.
Potenziell von Grooming betroffene Anbieter sollen dann das Alter ihrer Nutzer*innen überprüfen, um Minderjährige „zuverlässig“ zu identifizieren. Die Konsequenz sollen Maßnahmen zur Risikominderung sein. Zwar nennt der entsprechende Artikel im Entwurf kein konkretes Beispiel – denkbar wären aber zum Beispiel eingeschränkte Chat-Funktionen, die keine Gespräche mit Fremden erlauben.
Vergangene Recherchen über Grooming legen nahe: Diese Regelung könnte viele populäre Plattformen treffen, etwa TikTok, Instagram und Roblox oder das unter Gamer*innen beliebte Discord. Auch Messenger wie WhatsApp oder Signal könnten dazu verpflichtet werden, das Alter ihrer Nutzer*innen zu prüfen.
Entscheidend sind hier die Worte „zuverlässig identifizieren“. Eine schlichte Altersabfrage dürfte kaum genügen. Es geht auch nicht bloß darum, dass Anbieter Schutzfunktionen für Minderjährige bereithalten müssen, damit betroffene Minderjährige (oder ihre Aufsichtspersonen) sie einsetzen können. Stattdessen könnte es sein, dass Nutzer*innen in großem Stil beweisen sollen, dass sie schon erwachsen sind.
Zusätzlich sieht die Kommission eine weitere Altersschranke vor, die noch einen Schritt früher ansetzt, und zwar bei „Stores für Software-Anwendungen“. Darunter dürften mindestens der Google Play Store und Apples App Store fallen, je nach Auslegung auch Spiele-Marktplätze wie Steam. Auch dort müssten Nutzer*innen demnach ihr Alter nachweisen, bevor sie Zugang bekommen.
Das will der Rat der EU
Der Rat der EU vertritt die Regierungen der Mitgliedstaaten. Geht es um Alterskontrollen, deckt sich die Ratsposition weitgehend mit dem Vorschlag der Kommission. Auch der Rat will, dass Anbieter, die ein Risiko zur Kontaktaufnahme mit Kindern bei sich feststellen, das Alter ihrer Nutzer*innen kontrollieren. Das Gleiche will der Rat für App Stores.
Für die Ausgestaltung dieser Kontrollen stellt der Rat weitere Anforderungen auf. Demnach sollen die Maßnahmen Privatsphäre und Datenschutz wahren, transparent, akkurat und dabei auch zugänglich und diskriminierungsfrei sein. Der Rat spricht damit Aspekte an, die sich auch an anderer Stelle in EU-Regeln finden, etwa in den Leitlinien zum Jugendschutz im Netz auf Grundlage des Gesetzes über digitale Dienste (DSA).
Der Knackpunkt: Keine Technologie wird all diesen Anforderungen gerecht. Um den Anspruch zu erfüllen, akkurat zu sein, müssten Prüfungen wohl invasiv sein – sonst lassen sie sich täuschen. Typisch sind Kontrollen mit biometrischen Daten oder auf Basis von Dokumenten wie Ausweispapieren. Erstere können Menschen diskriminieren, die nicht ausreichend in den Trainingsdaten eines KI-Systems repräsentiert sind, etwa Women of Color. Letztere können Menschen ausschließen, die keine Papiere haben.
Das will das EU-Parlament
Das EU-Parlament will bei Alterskontrollen einen anderen Weg einschlagen, wie dessen Position zeigt. Streichen will das Parlament demnach die Pflichten für Alterskontrollen auf der Ebene von App-Stores.
Die Marktplätze sollen demnach bloß deutlich ausweisen, wenn Apps erst ab einem bestimmten Alter vorgesehen sind. Zudem sollen sie bei Apps, die das verlangen, die Zustimmung von Erziehungsberechtigten sicherstellen. Diese Maßnahmen könnten etwa Apple und Google bereits umgesetzt haben: Dort gibt es entsprechende Vorkehrungen für Accounts von Minderjährigen, die an Eltern-Accounts gekoppelt sind.
Für die Anbieter von Kommunikationsdiensten will das Parlament im Gegensatz zu Rat und Kommission keine verpflichtenden Alterskontrollen, sondern optionale. Risiken mindern müssen betroffene Anbieter dennoch; sie hätten allerdings die Wahl, auf welche Weise sie das tun.
Weniger invasive Methoden zur Altersprüfung haben einige Plattformen bereits heute im Einsatz. So will TikTok das Verhalten von Nutzer*innen auf Signale untersuchen, die auf ein zu geringes Alter hindeuten, etwa, mit welchen Accounts sie interagieren.
Das Parlament fordert zudem eine Reihe von Auflagen für Alterskontrollsysteme und wird dabei konkreter als der Rat. Demnach soll es für Nutzer*innen weiterhin möglich sein, anonyme Accounts einzurichten, und es sollen keine biometrischen Daten verarbeitet werden dürfen. Zudem sollen Kontrollen nach dem Zero-Knowledge-Prinzip erfolgen. Praktisch heißt das: Anbieter, bei denen man das eigene Alter nachweist, sollen nichts weiter erfahren, außer ob man die nötige Altersschwelle überschreitet. Ein mögliches Werkzeug dafür ist die von der EU in Auftrag gegebene Alterskontroll-App, die künftig Teil der digitalen Brieftasche (EUDI-Wallet) werden soll.
Für Dienste, die sich an Kinder unter 13 Jahren richten, fordert das Parlament zusätzlich, dass sie standardmäßig in ihren Funktionen hohe Sicherheitsstandards wählen. Sie sollen etwa verhindern, dass Nutzer*innen persönliche Daten teilen oder Screenshots machen können.
Gesondert verlangt das Parlament außerdem Regeln für Pornoplattformen. Diese besondere Gruppe von Anbietern soll verpflichtend das Alter von Nutzer*innen kontrollieren. Das entspräche jedoch im Tenor den Anforderungen aus bereits bestehenden EU-Gesetzen wie der Richtlinie über audiovisuelle Mediendienste und dem DSA.
Das steht auf dem Spiel
Alterskontrollen sind nicht nur ein Thema für Kinder und Jugendliche – es geht nämlich darum, alle Nutzer*innen zu kontrollieren, um Minderjährige herauszufiltern. Die deutsche Europa-Abgeordnete Birgit Sippel (SPD) warnt: „Eine verpflichtende Altersverifikation würde eine Ausweispflicht für weite Teile des Internets bedeuten, und zwar vor allem auch für Erwachsene.“ Diese Warnung würde jedoch voraussetzen, dass die EU eine Pflicht zu Alterskontrollen sehr streng auslegt.
Wenn bei Alterskontrollen die Plattformen zum Türsteher werden und Daten auch für andere Zwecken nutzen können, wäre das „höchst problematisch“, so Sippel weiter. Deshalb brauche es Safeguards wie das Zero-Knowledge-Prinzip. „Schließlich darf die Anonymität und Nutzung von Pseudonymen nicht gefährdet werden.“ Außerdem warnt die Abgeordnete davor, Alterskontrollen als Allheilmittel zu betrachten. „Um Kinder effektiv zu schützen, braucht es eine strukturelle Reform der Plattformen, damit Profit nicht mehr aus dem Geschäft mit missbräuchlichen Inhalten geschlagen werden kann.“ Abgeordnete aus anderen Fraktionen haben sich auf Anfrage von netzpolitik.org nicht geäußert.
Für European Digital Rights (EDRi), dem Dachverband von Organisationen für digitale Freiheitsrechte, beobachtet Politikberater Simeon de Brouwer das Gesetzesvorhaben. „Verpflichtende Altersverifikation bei Diensten für zwischenmenschliche Kommunikation ist gefährlich, weil sie die freie Rede unterdrückt“, warnt er. Je nach Art der Kontrollen könnten ganze Gesellschaftsgruppen ausgeschlossen werden – etwa Menschen ohne Papiere. Außerdem warnt er vor Einschüchterung („chilling effects“), wenn der Zugang zu sicherer Kommunikation hinter verpflichtenden Kontrollen steht.
Auch Alterskontrollen auf App-Marktplätzen lehnt de Brouwer ab. „Ein derartiges Maß an Kontrolle und aufdringlicher Datenverarbeitung sollte nicht normalisiert werden – besonders nicht an einem solchen Nadelöhr.“ Es entstehe keine Sicherheit, sondern Kontrolle, wenn der Zugang zu digitalen Werkzeugen vom Überwinden zentraler Prüfsysteme abhängig gemacht wird.
Svea Windwehr ist Co-Vorsitzende des Vereins für progressive Digitalpolitik D64. „Alle bekannten Technologien zur Altersbestimmung im Netz weisen signifikante Schwächen auf“, schreibt sie auf Anfrage. So seien etwa KI-gestützte Altersschätzungen häufig ungenau und „bergen massive Diskriminierungspotenziale, da ihre Leistung stark von Geschlecht, Alter, Hautfarbe und anderen Merkmalen abhängt“. Verifikation anhand von Ausweisdokumenten wiederum könne „eine signifikante Barriere für gesellschaftliche Teilhabe darstellen“.
Unterm Strich würden neue Pflichten zur Altersverifikation „einen Bärendienst für die Privatsphäre von jungen Menschen im Netz“ darstellen, warnt Windwehr. Vor allem würden sie nichts an den strukturellen Problemen ändern, die Plattformen zu unsicheren Räumen für Kinder machen können. „Der politische Anspruch sollte darin bestehen, an der Wurzel des Problems anzusetzen und Plattformen für ihre Produkte zur Verantwortung zu ziehen, statt vulnerable Nutzende auszuschließen.“
So geht es jetzt weiter
Beim Gesetz steht die EU unter gewissem Zeitdruck. Obwohl viele Dienstleister wie etwa Meta bereits jetzt eine freiwillige Chatkontrolle durchführen, fehlt dafür eine dauerhafte Rechtsgrundlage. Möglich ist die Maßnahme nur durch eine vorübergehende Ausnahmeregelung mit Blick auf die Datenschutz-Richtlinie für elektronische Kommunikation. Die Frist dafür endet jedoch im April 2026. Zumindest Kommission und Rat wollen sie um zwei Jahre verlängern; das Parlament müsste dem noch zustimmen.
Weil der Rat sich jahrelang nicht auf eine Position zur Chatkontrolle einigen konnte, war das ganze Gesetzesvorhaben für lange Zeit blockiert. Erst mit der Einigung auf die Ratsposition Ende November wurde der Weg frei für die informellen Trilog-Verhandlungen zwischen Kommission, Rat und Parlament. Beim Trilog versuchen die drei EU-Organe einen Kompromiss zu finden. Verhandelt wird hinter verschlossenen Türen. Dauer: ungewiss; ein Ergebnis ist nicht garantiert.
„Trotz der Differenzen zeigen das Europäische Parlament und der Rat die feste Absicht, intensiv an dem Vorschlag zu arbeiten und so schnell wie möglich eine Einigung zu erzielen“, sagte jüngst der spanische Abgeordnete Javier Zarzalejos (EVP) während einer Ausschuss-Sitzung am 27. Januar. Er ist der zuständige Berichterstatter der konservativen Fraktion im Parlament.
Nach dem ersten Verhandlungstermin am 9. Dezember sollen Verhandlungen auf technischer Ebene am 15. Januar begonnen haben. Aus diesen bis dato zwei Terminen könne Zarzalejos von „guter Atmosphäre und beachtlichem Fortschritt“ berichten. Diskutiert habe man bisher insbesondere das neue EU-Zentrum – das ist die geplante zentrale Anlaufstelle zur Umsetzung der Verordnung. Der nächste Trilog-Termin soll der 26. Februar sein.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Chris Köver recherchiert und schreibt über Migrationskontrolle, biometrische Überwachung, digitale Gewalt und Jugendschutz. Recherche-Anregungen und -Hinweise gerne per Mail oder via Signal (ckoever.24). Seit 2018 bei netzpolitik.org. Hat Kulturwissenschaften studiert und bei Zeit Online mit dem Schreiben begonnen, später eine eigene Zeitschrift mitgegründet. Ihre Arbeit wurden ausgezeichnet mit dem Journalistenpreis Informatik, dem Grimme-Online-Award und dem Rainer-Reichert-Preis zum Tag der Pressefreiheit. Kontakt: E-Mail (OpenPGP), BlueSky, Mastodon, Signal: ckoever.24. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
-
#Aufwachsen im #Internet:
„Die Verantwortung für alles, was auf dem #Kinderhandy passiert, liegt bei den #Eltern”
Kinder wachsen in einer digitalen Umgebung auf, die sie oft überfordert und gefährdet, sagt der #Digitaltrainer Julian Bühler. Schärfere Gesetze und Verbote alleine würden das Problem allerdings nicht lösen. Ein Gespräch über #Klassenchats, #Alterskontrollen im #Netz und die Frage, was wirklich helfen kann.
-
#Aufwachsen im #Internet:
„Die Verantwortung für alles, was auf dem #Kinderhandy passiert, liegt bei den #Eltern”
Kinder wachsen in einer digitalen Umgebung auf, die sie oft überfordert und gefährdet, sagt der #Digitaltrainer Julian Bühler. Schärfere Gesetze und Verbote alleine würden das Problem allerdings nicht lösen. Ein Gespräch über #Klassenchats, #Alterskontrollen im #Netz und die Frage, was wirklich helfen kann.
-
#Aufwachsen im #Internet:
„Die Verantwortung für alles, was auf dem #Kinderhandy passiert, liegt bei den #Eltern”
Kinder wachsen in einer digitalen Umgebung auf, die sie oft überfordert und gefährdet, sagt der #Digitaltrainer Julian Bühler. Schärfere Gesetze und Verbote alleine würden das Problem allerdings nicht lösen. Ein Gespräch über #Klassenchats, #Alterskontrollen im #Netz und die Frage, was wirklich helfen kann.
-
#Aufwachsen im #Internet:
„Die Verantwortung für alles, was auf dem #Kinderhandy passiert, liegt bei den #Eltern”
Kinder wachsen in einer digitalen Umgebung auf, die sie oft überfordert und gefährdet, sagt der #Digitaltrainer Julian Bühler. Schärfere Gesetze und Verbote alleine würden das Problem allerdings nicht lösen. Ein Gespräch über #Klassenchats, #Alterskontrollen im #Netz und die Frage, was wirklich helfen kann.
-
#Aufwachsen im #Internet:
„Die Verantwortung für alles, was auf dem #Kinderhandy passiert, liegt bei den #Eltern”
Kinder wachsen in einer digitalen Umgebung auf, die sie oft überfordert und gefährdet, sagt der #Digitaltrainer Julian Bühler. Schärfere Gesetze und Verbote alleine würden das Problem allerdings nicht lösen. Ein Gespräch über #Klassenchats, #Alterskontrollen im #Netz und die Frage, was wirklich helfen kann.
-
Sie lernen es niemals.
Das System der #Berufspolitiker, die nichts jemals wirklich gelernt haben, ist mit der Realität komplett überfordert. -
Die Jütland-Erklärung mit dem Ziel "Gestaltung einer sicheren Online-Welt für Minderjährige" durch wirksame Alterskontrollen.
Wie kann eine Alterskontrolle wirksam sein? So wie bei #Discord?
https://mastodon.de/@maniabel/115372875898494136
Lektüre von der #EU gibt es hier:
https://www.digmin.dk/Media/638956829775203140/DIGMIN_The%20Jutland%20Declaration%20Shaping%20a%20Safe%20Online%20World%20for%20Minors%20101025.pdf
Kommentar von @netzpolitik_feed hier: https://netzpolitik.org/2025/erklaerung-zu-alterskontrollen-25-eu-staaten-waehlen-den-billigen-weg/#altersverifikation #alterskontrollen #socialmedia #minderjährige #minors
#JutlandDeclaration -
Alterskontrollen im Netz: Drogenbeauftragter Streeck argumentiert unsauber – Ein Zitat des Drogenbeauftragten ging diese Woche durch große Nachrichtenmedien. Mit angeblich wissenschaftlicher Begründung sprach sich Hendrik Streeck (CDU) für Alterskontrollen im Netz aus. Doch an dem Zitat ist etwas faul. Ein Kommentar.
Forderungen nach Alterskontrollen im Netz sind gerade in Mode. Nach den Bundesministerinnen für Justiz (SPD) und Familie (CDU) sind jüngst auch die beiden Bundesbeauftragten für Missbrauch und Drogen dem Trend gefolgt. Nachrichtenmedien reagieren darauf routiniert mit Schlagzeilen.
Die Forderungen stehen jedoch weitgehend losgelöst von der juristischen und medienpädagogischen Debatte. Aus medienpädagogischer Perspektive sind pauschale Alterskontrollen wenig zielführend. Vielmehr plädieren Fachleute für verschiedene Maßnahmen, je nach Risiko für betroffene Minderjährige. Aus juristischer Perspektive wiederum sind die Spielräume für pauschale Alterskontrollen sehr klein, gerade auf nationaler Ebene. Vielmehr gibt es Rechtsgrundlagen für verschiedene Maßnahmen, je nach Risiko für betroffene Minderjährige.
Es gibt also eine Schnittmenge aus dem, was medienpädagogisch sinnvoll und juristisch möglich wäre. Das könnte die Grundlage für eine seriöse Debatte sein. Stand aktuell ist davon aber wenig zu sehen.
Bemerkenswert unseriös ist ein Zitat des Drogenbeauftragten der Bundesregierung, Hendrik Streeck. Im Interview mit der Rheinischen Post vom 25. August sagte der CDU-Politiker:
Ich bin dafür, dass es künftig strikt abgestufte Altersvorgaben für soziale Medien gibt und die Altersprüfungen auch wirklich wirksam stattfinden. Denn es ist wissenschaftlich nachgewiesen, dass Kinder und Jugendliche, die in hohem Maße nicht altersgerechte Inhalte konsumieren, anfälliger für riskantes Suchtverhalten und problematischen Drogenkonsum werden.
Renommierte Nachrichtenmedien von tagesschau.de bis n-tv haben dieses Zitat unkritisch übernommen. Es steht exemplarisch für die Oberflächlichkeit der aktuellen Debatte und ist deshalb einen genauen Blick wert. Für die Analyse braucht es zwei Schritte.
Erstens: Irreführender Bezug auf „nicht altersgerechte Inhalte“
Streeck spricht von nicht altersgerechten Inhalten. Das ist ein Sammelbegriff. Eine anschauliche Auffächerung bietet die Kommission für Jugendmedienschutz. Riskant für Minderjährige sind demnach unter anderem:
- Darstellungen von Gewalt,
- Darstellungen von Sexualität,
- Angebote, die offen Diskriminierungen propagieren,
- Angebote, die zu zu riskantem und selbstschädigendem Verhalten anregen,
- Werbung, die Unerfahrenheit und Leichtgläubigkeit ausnutzt,
- Werbung für Alkohol, Tabak und Glücksspiel.
Streeck zufolge sollen solche Inhalte also Suchtverhalten und Drogenkonsum fördern. Heißt das, Erotik macht Durst auf Bier? Und wer Werbung für Lootboxen sieht, greift vermehrt zum Bubatz?
Wir haben die Stelle um Erklärung gebeten: Auf welche wissenschaftlichen Quellen bezieht sich der Drogenbeauftragte? Geantwortet hat die Pressestelle mit Verweisen auf mehrere Studien. Diese beziehen sich aber nicht pauschal auf „nicht altersgerechte Inhalte“, sondern spezifisch auf Darstellung von Drogenkonsum. In diesem Fall lässt sich der Zusammenhang tatsächlich belegen: Mediale Darstellung von Drogen kann demnach deren Konsum fördern.
Wir halten fest: Der Bezug auf „nicht altersgerechte Inhalte“ im Streeck-Zitat ist zu pauschal – und deshalb irreführend.
Zweitens: Dünner Bezug zu Alterskontrollen
Im ersten Schritt der Analyse wurde geklärt, dass der Drogenbeauftragte seine Forderung nach Alterskontrollen auf Darstellung von Drogenkonsum stützt. Der zweite Schritt der Analyse zeigt: Darstellung von Drogenkonsum spielt in der Debatte um Alterskontrollen für soziale Medien nur eine untergeordnete Rolle.
- Eine Grundlage für Alterskontrollen im Netz ist die EU-Richtlinie für audiovisuelle Mediendienste(AVMD-RL). Demnach sollen „grundlose Gewalttätigkeiten und Pornografie“ den „strengsten“ Maßnahmen wie Alterskontrollen unterliegen, weil sie als „schädlichste“ Inhalte gelten. Darstellungen von Drogenkonsum fallen nicht darunter.
- Weiter reguliert die AVMD-RL Werbung für Tabak und Alkohol. So darf audiovisuelle Werbung für alkoholische Getränke „nicht speziell an Minderjährige gerichtet sein und darf nicht den übermäßigen Genuss solcher Getränke fördern“. Aber „strengste“ Maßnahmen wie Alterskontrollen sind hier nicht vorgesehen.
- Auch das Gesetz über digitale Dienste (DSA) kann Grundlage für Alterskontrollen sein. Mehr dazu steht in den Leitlinien der EU-Kommission. Demnach können „Risiken im Zusammenhang mit dem Kauf und Gebrauch“ von Drogen durchaus Alterskontrollen begründen. Maßnahmen müssen jedoch für jeden betroffenen Dienst angemessen und verhältnismäßig sein.
- In Deutschland sucht die Medienaufsicht mit der Software KIVI automatisch nach potenziell schädlichen Inhalten für Jugendliche im Netz. Darunter fällt auch die Verherrlichung von Drogen. Die meisten Funde lieferte das Tool, Stand 2022, allerdings für politischen Extremismus und Pornografie.
Wischi-waschi-Verweise
Völlig an den Haaren herbeigezogen ist die Verbindung zwischen sozialen Medien und der Darstellung von Drogenkonsum nicht. Im Jahr 2023 zeigte etwa eine Analyse im Auftrag des Gesundheitsministeriums, „dass Werbung für E-Zigaretten und Tabakerhitzer in sozialen Medien in Deutschland – trotz Verbots – weit verbreitet und für die meist jungen Nutzerinnen und Nutzer der Plattformen zugänglich ist“.
Mit viel Fantasie lässt sich im Streeck-Zitat zumindest das Anliegen erkennen, die Debatte um Alterskontrollen um eine bislang wenig beachtete Dimension zu erweitern, nämlich um die möglicherweise problematische Darstellung von Drogen in sozialen Medien. Auf dieser Grundlage ließe sich diskutieren, ob Alterskontrollen in diesem Fall geeignet, erforderlich und zweckmäßig wären – oder auch nicht. Und ob mildere Mittel einer drastischen Maßnahme wie Alterskontrollen nicht vorzuziehen wären.
Strenge Alterskontrollen bedeuten praktisch: Alle Menschen müssen sich ausweisen oder ihr Gesicht biometrisch scannen lassen. Die Auswirkungen auf Grundrechte sind enorm. Aus gutem Grund sind die gesetzlichen Hürden dafür sehr hoch. Der Dachverband europäischer Organisationen für digitale Freiheitsrechte, EDRi, lehnt die Maßnahme sogar gänzlich ab, auch im Sinne der betroffenen Kinder. Umso wichtiger ist es, Forderungen nach Alterskontrollen gut zu begründen. Mit schnoddrig formulierten Wischi-waschi-Verweisen auf wissenschaftliche Belege klappt das nicht.
Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.
Lesen Sie ergänzend auch:
Esther Menhard/netzpolitik: “Bildungs-ID: Bundesregierung will Schüler zentral erfassen – Die Bundesregierung will die zentrale Schüler-ID. Doch Datenschützer*innen, Wissenschaftler*innen und Gewerkschafter*innen sind sich einig: Die Privatsphäre Minderjähriger steht auf dem Spiel.”
und
Markus Reuter/netzpolitik: “Schüler-ID: Magischer Glaube an die zentrale Datenbank – Politiker:innen verbinden mit der zentralen Schüler-ID große Hoffnungen. Doch primär entsteht ein großes Datenschutzproblem und noch mehr Überwachung. Investitionen in Bildung könnten ganz woanders gebraucht werden. Ein Kommentar.”
Über Sebastian Meineck - netzpolitik:
Unter der Kennung "Gastautor:innen" fassen wir die unterschiedlichsten Beiträge externer Quellen zusammen, die wir dankbar im Beueler-Extradienst (wieder-)veröffentlichen dürfen. Die Autor*innen, Quellen und ggf. Lizenzen sind, soweit bekannt, jeweils im Beitrag vermerkt und/oder verlinkt.