home.social

#jugendmedienschutz — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #jugendmedienschutz, aggregated by home.social.

  1. 💻 Online-#Workshop der @BzKJ | Neue digitale Trends, neue Gefährdungen: Rechtliche Grundlagen des Kinder- und Jugendmedienschutzes

    📅 Dienstag, 02.06.2026
    🕔 17:00 - 18:30 Uhr
    🔗 kulturellebildung.de/kurse/onl

    👉 Die Workshops in Kooperation mit der Akademie der Kulturellen Bildung richten sich an alle, die sich für Kinder- und #Jugendmedienschutz interessieren – sei es beruflich, ehrenamtlich oder privat. Die Teilnahme ist kostenfrei, eine Anmeldung ist erforderlich.

    #Medienbildung #FediEltern

  2. Über #KI-Tools lassen sich Bilder und Videos erstellen. Wenn dies ohne Einschränkungen möglich ist oder die Vorkehrungen nicht ausreichen, dann werden diese Angebote oft für Missbrauchsdarstellungen genutzt. Ende 2025 indizierte die Prüfstelle der @BzKJ deshalb eines dieser Angebote.

    Hier findest du den ganzen Beitrag mit weiteren Informationen zur Indizierung: bzkj.de/bzkj/service/publikati

    #Indizierung #Gefährdung #Jugendmedienschutz #FediEltern

  3. Beauty-Werbung online: Gehört das auf den Index? Welcher Schutz ist sinnvoll? Zählt kosmetische Gestaltung nicht gerade auch zur Selbsterkundung von Jugendlichen?

    Das diskutieren Journalistin Rabea Weihser und Nilani Möhrle, Vorsitzende der Prüfstelle für jugendgefährdende Medien, am 19. Mai ab 19:30 Uhr auf dem Podium des „Schönheitssalons“ der Urania Berlin.

    Die Prüfstelle ist bei der @BzKJ angesiedelt.

    urania.de/event/beauty-werbung

    #Jugendmedienschutz #PrüfstelleBzKJ #FediEltern #Veranstaltung

  4. Wie beeinflussen digitale Medien die Sexualität junger Menschen? Darum geht es beim Medienpädagogischen Küchentalk am 12.5., veranstaltet von der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM), @gmknet und in Kooperation mit dem Museum für Kommunikation Berlin.

    🎤Als Gast ist unter anderem Michael Terhörst, Leiter der #KidD, dabei.

    🔗 Livestream + Anmeldung vor Ort: gmk-net.de/veranstaltungen/med

    #MKT2026 #Küchentalk #Medienbildung #Jugendmedienschutz #FediEltern

  5. Dark Romance ist stark im Aufschwung – vor allem bei jungen Leserinnen. Doch was steckt dahinter?

    Das Genre bewegt sich an Grenzen: Zentrale Elemente sind häufig toxische Beziehungen, Machtgefälle und fehlender Konsens. Sarah Herrmann, Referentin bei der BzKJ, erklärt in einem Beitrag:

    „Die dauerhafte Konfrontation mit Gewalt, Erniedrigung und fehlender Einvernehmlichkeit kann zu einer Normalisierung toxischer Beziehungsmuster führen.“

    🔗eltern.de/familie-urlaub/kann-

    #Jugendmedienschutz #FediEltern

  6. Wie können wir Kinder und Jugendliche bei Online-Gewalt richtig schützen und begleiten? Was müssen pädagogische Fachkräfte wissen?

    Darüber spricht im Podcast „Raw and Uncut – 11 Minuten Medienpädagogik“ von der @gmknet Isabell Rausch-Jarolimek, Referatsleiterin „Weiterentwicklung des Kinder- und Jugendmedienschutzes“ der @BzKJ mit Moderatorin Anja Pielsticker.

    🔗 gmk-net.de/podcast/raw-and-unc

    #RawandUncut #Podcast #Jugendmedienschutz #Cybergrooming

  7. 📷 KI-generierte Darstellungen sexualisierter Gewalt gegen Kinder sind real und nehmen zu. Das Problem: Technologie entwickelt sich schneller als Recht und Regulierung. Es fehlen klare Einordnungen, Standards und Verantwortlichkeiten.

    Wie Sebastian Gutknecht, Direktor der BzKJ, betont, braucht es dringend mehr Austausch zwischen Praxis, Wissenschaft und Regulierung. Kinderschutz darf nicht hinter Technik zurückbleiben.

    bzkj.de/bzkj/service/alle-meld

    #KI #DigitalPolicy #Jugendmedienschutz #FediEltern

  8. 📱 Was diskutiert aktuell der Beirat der @BzKJ ? Hier einige Entwicklungen, die besprochen wurden:

    🔍 Prüfkriterien für Online-Plattformen.

    🤝 Mehr Unterstützung im Alltag: Ausbau der Zusammenarbeit mit @klicksafe

    🗣️ Mehr Beteiligung junger Menschen über neue Formate wie BzKJ #JugendDigital.

    bzkj.de/bzkj/beirat/bzkj-jugen

    #Jugendmedienschutz #Medienkompetenz #Eltern #DigitalerAlltag #Kinderrechte #FediEltern

  9. 🤔 Nur für Erwachsene oder Personen ab 14 Jahren und trotzdem sind Kinder da?

    Wenn eine Plattform von Kindern und Jugendlichen genutzt wird oder wenn es wahrscheinlich ist, dass sie darauf zugreifen können, muss die Plattform die Regeln des Gesetzes über digitale Dienste und die Leitlinien zum Schutz Minderjähriger befolgen.

    📌 Der Digital Services Act #DSA gilt nicht für private Messaging-Dienste oder -Funktionen.

    #Jugendmedienschutz #Plattformregulierung #FediEltern

  10. Welche Gefahren bergen Inhalte für Jugendliche, die online Rauschzustände feiern und verharmlosen? Was müssen Plattformen tun, um ihrer Verantwortung besser gerecht zu werden, wenn es um die Löschung solcher Inhalte geht?

    Drogenverherrlichung auf TikTok ist Thema im Report „#PingTok, #TripTok & Co.“ von jugendschutz.net im April 2026: jugendschutz.net/mediathek/art

    #Jugendmedienschutz #FediEltern

  11. Australien hat kein «Pauschales Social Media Verbot» eingeführt – und trotzdem behaupten es fast alle. 🤔

    Down Under hat gezielt Doomscrolling-Apps wie TikTok für unter 16-Jährige eingeschränkt. Signal, Discord & Co. bleiben erlaubt. Es geht also nicht um ein Kommunikationsverbot.

    Doomscrolling ist kein Menschenrecht.

    mebimabo.ch/social-media-verbo

    #Jugendmedienschutz #Doomscrolling #SocialMedia #Australien #Medienkompetenz #Kinderrechte #TikTok #Medienkritik #DigitaleBildung #Medienbildung

  12. 🛡️ Hilfreiche Tools

    StopNCII.org bietet Hilfe, wenn jemand droht, intime Bilder zu veröffentlichen:
    🔗 stopncii.org/

    Mit takeitdown intime Bilder oder Videos löschen, die unerlaubt geteilt wurden. Gilt bei vielen Online-Plattformen und ist eine Hilfe für Personen unter 18 Jahren:
    🔗 takeitdown.ncmec.org/de/

    #Jugendmedienschutz #Deepfake #FediEltern

  13. Sonderauswertung der Studie Jugendsexualität des Bundesinstituts für Öffentliche Gesundheit @bioeg zeigt, dass 2/3 der jungen Menschen digitale sexualisierte Gewalt, sexuelle Beleidigungen oder Belästigung erlebt haben.

    👉 Digitale sexualisierte Gewalt ist kein Randphänomen.

    bioeg.de/presse/pressemitteilu

    #Jugendmedienschutz #Deepfake #FediEltern

  14. Digitale sexualisierte Gewalt ist kein Randphänomen.

    👉 Wie Betroffene, Fachkräfte, Eltern und Erziehende reagieren können:

    1. Dokumentieren – Beweise sichern, zum Beispiel mit Screenshots.
    2. Melden – Meldefunktionen der Plattform nutzen.
    3. Hilfe holen – Unterstützung annehmen.

    🛡️ Anlaufstellen für Hilfe & Informationen:
    🔗 gutes-aufwachsen-mit-medien.de/
    🔗 hateaid.org/
    🔗 jugendschutz.net/
    🔗 juuuport.de/
    🔗 klicksafe.de/

    #Jugendmedienschutz #Deepfake #FediEltern

  15. Ein #Deepfake ist ein mit generativer Künstlicher Intelligenz bearbeitetes oder komplett erstelltes Video-, Bild- oder Audiodatei, das täuschend echt aussieht.

    Eine Studie von @unicefgermany, ECPAT International und INTERPOL „zeigt das Ausmaß dieser schnell wachsenden Bedrohung:

    Demnach wurden die Bilder von mindestens 1,2 Millionen Kinder im vergangenen Jahr zu sexuell eindeutigen Deepfakes manipuliert.“

    safeonline.global/dh2-research

    #Jugendmedienschutz #KI #FediEltern

  16. 📊 Nach den Kernergebnissen der DAK-Suchtstudie fühlt sich jeder 10 Jugendliche von #KI besser verstanden als von echten Menschen.

    Anlässlich des Safer Internet Days 2026 mit dem Motto „KI and me. In künstlicher Beziehung.“ gibt es von @klicksafe neue 💡 Informations- und Bildungsangebote zum Umgang mit generativen KI-Chatbots.

    Die Materialien sind unter Beteiligung der @BzKJ entstanden, für Jugendliche, Erziehende Fachkräfte: 🔗 klicksafe.de/sid

    #Jugendmedienschutz #FediEltern

  17. „Echte Beziehungen sind unersetzlich. Kinder und Jugendliche brauchen Orientierung beim Umgang mit KI-Chatbots", so Sebastian Gutknecht – Direktor der @BzKJ – anlässlich der am 24.3. veröffentlichten DAK-Suchtstudie.

    Ein Teil der Kinder und Jugendlichen nutzt beim Umgang mit mentalen Belastungen KI-Anwendungen, zum Beispiel bei Einsamkeit.

    📌 Hier geht es zur Pressemitteilung der BzKJ: bzkj.de/bzkj/service/alle-meld

    📊 DAK-Studie: dak.de/presse/bundesthemen/kin

    #Jugendmedienschutz #KI #FediEltern

  18. #BewegtGegenRassismus Unter dem Motto „100 % Menschenwürde. Zusammen gegen Rassismus und Rechtsextremismus.“ finden vom 16.-29.3. die Internationalen Wochen gegen Rassismus statt.

    🔗 Link zum 📅Veranstaltungskalender, organisiert von der Stiftung für die Internationalen Wochen gegen Rassismus: stiftung-gegen-rassismus.de/ve

    #Jugendmedienschutz #Demokratie #FediEltern

  19. #BewegtGegenRassismus Unter dem Motto „100 % Menschenwürde. Zusammen gegen Rassismus und Rechtsextremismus.“ finden vom 16.-29.3. die Internationalen Wochen gegen Rassismus statt.

    🔗 Link zum 📅Veranstaltungskalender, organisiert von der Stiftung für die Internationalen Wochen gegen Rassismus: stiftung-gegen-rassismus.de/ve

    #Jugendmedienschutz #Demokratie #FediEltern

  20. #BewegtGegenRassismus Unter dem Motto „100 % Menschenwürde. Zusammen gegen Rassismus und Rechtsextremismus.“ finden vom 16.-29.3. die Internationalen Wochen gegen Rassismus statt.

    🔗 Link zum 📅Veranstaltungskalender, organisiert von der Stiftung für die Internationalen Wochen gegen Rassismus: stiftung-gegen-rassismus.de/ve

    #Jugendmedienschutz #Demokratie #FediEltern

  21. #BewegtGegenRassismus Unter dem Motto „100 % Menschenwürde. Zusammen gegen Rassismus und Rechtsextremismus.“ finden vom 16.-29.3. die Internationalen Wochen gegen Rassismus statt.

    🔗 Link zum 📅Veranstaltungskalender, organisiert von der Stiftung für die Internationalen Wochen gegen Rassismus: stiftung-gegen-rassismus.de/ve

    #Jugendmedienschutz #Demokratie #FediEltern

  22. #BewegtGegenRassismus Unter dem Motto „100 % Menschenwürde. Zusammen gegen Rassismus und Rechtsextremismus.“ finden vom 16.-29.3. die Internationalen Wochen gegen Rassismus statt.

    🔗 Link zum 📅Veranstaltungskalender, organisiert von der Stiftung für die Internationalen Wochen gegen Rassismus: stiftung-gegen-rassismus.de/ve

    #Jugendmedienschutz #Demokratie #FediEltern

  23. Digitale Räume für Kinder und Jugendliche - zwischen Schutz, Verbot und Selbstbestimmung.

    Mediensalon des Netzwerks #Interaktiv #München:
    📅 Dienstag, 28.04.26
    ⏰ ab 19 Uhr
    📍 Kath. Stiftungshochschule München

    Die Teilnahme ist kostenfrei! Auch eine Online-Teilnahme wird möglich sein.

    👉 Info & Anmeldung: interaktiv-muc.de/mediensalon-

    #Medienpädagogik #Medienerziehung #Jugendmedienschutz #SocialMediaVerbot #InteraktivMuc

  24. Digitale Räume für Kinder und Jugendliche - zwischen Schutz, Verbot und Selbstbestimmung.

    Mediensalon des Netzwerks #Interaktiv #München:
    📅 Dienstag, 28.04.26
    ⏰ ab 19 Uhr
    📍 Kath. Stiftungshochschule München

    Die Teilnahme ist kostenfrei! Auch eine Online-Teilnahme wird möglich sein.

    👉 Info & Anmeldung: interaktiv-muc.de/mediensalon-

    #Medienpädagogik #Medienerziehung #Jugendmedienschutz #SocialMediaVerbot #InteraktivMuc

  25. Digitale Räume für Kinder und Jugendliche - zwischen Schutz, Verbot und Selbstbestimmung.

    Mediensalon des Netzwerks #Interaktiv #München:
    📅 Dienstag, 28.04.26
    ⏰ ab 19 Uhr
    📍 Kath. Stiftungshochschule München

    Die Teilnahme ist kostenfrei! Auch eine Online-Teilnahme wird möglich sein.

    👉 Info & Anmeldung: interaktiv-muc.de/mediensalon-

    #Medienpädagogik #Medienerziehung #Jugendmedienschutz #SocialMediaVerbot #InteraktivMuc

  26. Digitale Räume für Kinder und Jugendliche - zwischen Schutz, Verbot und Selbstbestimmung.

    Mediensalon des Netzwerks #Interaktiv #München:
    📅 Dienstag, 28.04.26
    ⏰ ab 19 Uhr
    📍 Kath. Stiftungshochschule München

    Die Teilnahme ist kostenfrei! Auch eine Online-Teilnahme wird möglich sein.

    👉 Info & Anmeldung: interaktiv-muc.de/mediensalon-

    #Medienpädagogik #Medienerziehung #Jugendmedienschutz #SocialMediaVerbot #InteraktivMuc

  27. Digitale Räume für Kinder und Jugendliche - zwischen Schutz, Verbot und Selbstbestimmung.

    Mediensalon des Netzwerks #Interaktiv #München:
    📅 Dienstag, 28.04.26
    ⏰ ab 19 Uhr
    📍 Kath. Stiftungshochschule München

    Die Teilnahme ist kostenfrei! Auch eine Online-Teilnahme wird möglich sein.

    👉 Info & Anmeldung: interaktiv-muc.de/mediensalon-

    #Medienpädagogik #Medienerziehung #Jugendmedienschutz #SocialMediaVerbot #InteraktivMuc

  28. 🤔 Wie können Kinder und Jugendliche online besser geschützt werden? Welche Verantwortung tragen Online-Plattformen und was regelt der Digital Services Act #DSA?

    Verständliche Informationen bietet die Broschüre der EU-Kommission „Das Gesetz über digitale Dienste (DSA) verstehen – Was Online-Plattformen tun sollten, damit Kinder und Jugendliche online sicher sind“ – in unterschiedlichen Sprachen verfügbar: 🔗 op.europa.eu/en/publication-de

    #Jugendmedienschutz #digitaleTeilhabe #FediEltern

  29. 🤔 Wie können Kinder und Jugendliche online besser geschützt werden? Welche Verantwortung tragen Online-Plattformen und was regelt der Digital Services Act #DSA?

    Verständliche Informationen bietet die Broschüre der EU-Kommission „Das Gesetz über digitale Dienste (DSA) verstehen – Was Online-Plattformen tun sollten, damit Kinder und Jugendliche online sicher sind“ – in unterschiedlichen Sprachen verfügbar: 🔗 op.europa.eu/en/publication-de

    #Jugendmedienschutz #digitaleTeilhabe #FediEltern

  30. 🤔 Wie können Kinder und Jugendliche online besser geschützt werden? Welche Verantwortung tragen Online-Plattformen und was regelt der Digital Services Act #DSA?

    Verständliche Informationen bietet die Broschüre der EU-Kommission „Das Gesetz über digitale Dienste (DSA) verstehen – Was Online-Plattformen tun sollten, damit Kinder und Jugendliche online sicher sind“ – in unterschiedlichen Sprachen verfügbar: 🔗 op.europa.eu/en/publication-de

    #Jugendmedienschutz #digitaleTeilhabe #FediEltern

  31. 🤔 Wie können Kinder und Jugendliche online besser geschützt werden? Welche Verantwortung tragen Online-Plattformen und was regelt der Digital Services Act #DSA?

    Verständliche Informationen bietet die Broschüre der EU-Kommission „Das Gesetz über digitale Dienste (DSA) verstehen – Was Online-Plattformen tun sollten, damit Kinder und Jugendliche online sicher sind“ – in unterschiedlichen Sprachen verfügbar: 🔗 op.europa.eu/en/publication-de

    #Jugendmedienschutz #digitaleTeilhabe #FediEltern

  32. 🤔 Wie können Kinder und Jugendliche online besser geschützt werden? Welche Verantwortung tragen Online-Plattformen und was regelt der Digital Services Act #DSA?

    Verständliche Informationen bietet die Broschüre der EU-Kommission „Das Gesetz über digitale Dienste (DSA) verstehen – Was Online-Plattformen tun sollten, damit Kinder und Jugendliche online sicher sind“ – in unterschiedlichen Sprachen verfügbar: 🔗 op.europa.eu/en/publication-de

    #Jugendmedienschutz #digitaleTeilhabe #FediEltern

  33. 📑 Report von jugendschutz.net zum Thema „Meinungsblasen und Extremismus auf TikTok“: 📌 "Schon wenige Klicks reichen aus, um immer extremere Inhalte ausgespielt zu bekommen."

    Hier geht es direkt zum Report: ➡️ jugendschutz.net/mediathek/art

    #Jugendmedienschutz #Extremismus #Filterblasen #FediEltern

  34. Umfragen zum Social-Media-Verbot

    Wer schlau fragt, bekommt schlaue Antworten

    Das ZDF-Politbarometer zeigt eine Mehrheit für ein Social-Media-Verbot in Deutschland. Eine Umfrage des Deutschen Instituts für Wirtschaftsforschung spricht gegen Verbote. Ja, was denn nun? Was wir von Umfragen lernen können und was nicht.

    Soll der Staat soziale Medien für Minderjährige verbieten – und sollen alle Nutzer*innen beweisen müssen, dass sie keine Kinder mehr sind? Darum geht es in der international brodelnden Social-Media-Debatte. Australien hat ein solches Social-Media-Verbot seit Dezember. Nachmachen möchten das unter anderem die CDU, Bundeskanzler Friedrich Merz und SPD-Vizekanzler Lars Klingbeil sowie die Staats- und Regierungschef*innen weiterer EU-Länder.

    In Umfragen klopfen Meinungsforscher*innen ab, wie Menschen in Deutschland das bewerten. Welche Social-Media-Regulierung ist gut, welche schlecht? Die bisherigen Ergebnisse zeigen: Je differenzierter man fragt, desto differenzierter sind die Antworten.

    Mehrheiten für Verbote: Es kommt aufs Alter an

    Jüngst hat das Deutsche Institut für Wirtschaftsforschung (DIW) die Ergebnisse einer repräsentativen Umfrage mit 2.685 Menschen aus Deutschland veröffentlicht. Das australische Modell mit einer Altersgrenze von 16 Jahren fällt bei den Befragten durch: Die Mehrheit von 50,4 Prozent lehnt es ab, nur 33 Prozent finden es gut.

    Mit einer niedrigen Altersgrenze von 12 Jahren dagegen könnten sich laut DIW die meisten anfreunden: 71 Prozent befürworten das.

    Im Widerspruch zur DIW-Umfrage stehen ältere Umfragen des ifo Instituts und des Instituts Insa. Demnach befürworten die meisten Deutschen durchaus ein Verbot bis 16 Jahre. Die Befragten hatten aber nicht die Wahl zwischen mehreren Altersstufen. Eine breite Palette an Altersstufen bekamen dagegen die Befragten durch das Bundesinstitut für Bevölkerungsforschung vorgesetzt. Die meisten (38 Prozent) entschieden sich für 14 Jahre.

    14 Jahre ist auch die Grenze, auf die sich jüngst die CDU per Parteitagsbeschluss geeinigt hat. Wichtige SPD-Politiker*innen wollen sie ebenso haben. Hierzu gibt es auch eine Erhebung der Forschungsgruppe Wahlen für das ZDF-Politbarometer: Demnach finden das 81 Prozent der Befragten gut.

    Wer nicht weiter bohrt, könnte an dieser Stelle den Eindruck gewinnen: Solange die Altersgrenze nicht zu hoch ist, dürfte ein Social-Media-Verbot bei den meisten Menschen in Deutschland auf Wohlwollen stoßen. Aber das greift zu kurz.

    Alterskontrollen für alle: Die Frage, die fast niemand stellt

    Ein Social-Media-Verbot allein würde zunächst wenig ändern, denn Altersgrenzen für soziale Medien gibt es schon heute. Viele der größten Plattformen schreiben ein Mindestalter von 13 Jahren vor und löschen Accounts, die mutmaßlich jüngeren Menschen gehören. Das betrifft etwa Instagram oder TikTok. Bei YouTube beträgt das offizielle Mindestalter sogar 16 Jahre. Würde es nach CDU und SPD gehen, dürften Kinder YouTube künftig schon früher legal nutzen als heute.

    Ob 12, 14 oder 16 Jahre, der Fokus auf das Alter verkennt den springenden Punkt: die Durchsetzung. Begleitet werden sollen die derzeit diskutierten Social-Media-Verbote nämlich in aller Regel von zuverlässigen Alterskontrollen.

    Im Gespräch sind etwa Verfahren, bei denen alle Menschen gegenüber vielen wichtigen Plattformen per Ausweis belegen müssen, dass sie schon alt genug sind. Sonst können sie beispielsweise kein Video auf YouTube liken. Eine häufige Alternative zu Ausweiskontrollen sind biometrische Scans des Gesichts. Auf deren Grundlage soll eine (oft als KI bezeichnete) Software eine Schätzung anstellen. Dabei passieren häufig Fehler.

    Solche und weitere Verfahren zur Durchsetzung von Alterskontrollen können sehr invasiv sein. Sie bedeuten nicht nur mehr Frickelei und mehr Hürden für alle Menschen im Netz, sondern greifen auch in die Privatsphäre ein; bergen die Gefahr von Datenschutz-Skandalen – und schließen Hunderttausende Menschen aus, die schlicht keine Papierehaben, um Kontrollen zu meistern. Hunderte Forscher*innen aus Technologie und IT-Sicherheit warnen deshalb eindringlich vor den Folgen von Alterskontrollen.

    Das führt zu einer Kernfrage der Social-Media-Debatte: Sind Sie bereit, sich im Internet großflächigen Kontrollen ihrer Ausweispapiere zu unterziehen oder ihr Gesicht scannen zu lassen?

    Dieser Aspekt fehlt in den Umfragen vieler Meinungsforscher*innen. Daran gedacht hat zumindest das Institut YouGov im Auftrag des Internet-Branchenverbands eco. Das Ergebnis: Die meisten Befragten wollen solche Kontrollen nicht haben.

    • Eine Altersprüfung durch offiziell ausgestellte Dokumente befürworten demnach 44 Prozent.
    • Eine KI-basierte Altersschätzung befürworten nur 10 Prozent.

    Dennoch wollen die meisten der von YouGov befragten Menschen (82 Prozent) eine Altersgrenze für Social Media. Das legt den Verdacht nahe: Viele finden ein Verbot gut, solange es sie nicht selbst einschränkt.

    Breite Mehrheiten für mildere Regulierung

    Social-Media-Verbote sind das schärfste Mittel im Versuch, junge Menschen vor digitalen Risiken zu schützen. Sie schränken umfassend Grundrechte wie Teilhabe und Information ein. Es gibt aber auch mildere Mittel. Genau danach hat das DIW gefragt – und reihenweise Zustimmung geerntet. Zum Beispiel:

    • „Kinder und Jugendliche sollten besser in Medienkompetenz geschult werden, um soziale Medien sicher nutzen zu können“ – rund 94 Prozent dafür.
    • Eltern sollten stärker darauf achten, wie ihre Kinder soziale Medien nutzen“ – rund 95 Prozent dafür.
    • „Für Kinder und Jugendliche sollten nur eingeschränkte Konten (‚Basisaccounts‘) verfügbar sein, bei denen problematische Funktionen – etwa die Kontaktaufnahme durch fremde Personen – deaktiviert sind“ – rund 88 Prozent dafür.

    Einen ähnlichen Tenor hatte die Umfrage einer Marktforschungs-Agentur mit 857 Eltern und Kindern, die wir im Januar besprochen haben. Demnach wollten die befragten Kinder, Jugendlichen und Eltern soziale Medien lieber einschränken als verbieten.

    Diese Tendenzen zeigen: Es braucht Fragen nach alternativen Ansätzen zu einem Social-Media-Verbot, denn sie machen differenzierte Ansichten in der Bevölkerung überhaupt erst sichtbar.

    Soziale Medien: Mehrheit der Deutschen hat differenziertes Bild

    Die meisten Menschen in Deutschland sehen offenbar, dass soziale Medien sowohl gut als auch schlecht sein können. Auch das zeigen die Ergebnisse der neuen DIW-Umfrage.

    • Risiken sozialer Medien sieht die überwältigende Mehrheit der Befragten. Rund 90 Prozent sagen: „Soziale Medien stellen für Kinder und Jugendliche erhebliche Gefahren dar (zum Beispiel durch Mobbing, sexualisierte Inhalte oder Kontakte mit Fremden).“
    • Chancen sozialer Medien sieht eine kleinere, aber immer noch absolute Mehrheit von rund 63 Prozent. Sie sagen: „Soziale Medien bieten Kindern und Jugendlichen wichtige Chancen (zum Beispiel sich auszutauschen, kreativ zu sein oder Zugang zu Informationen und gesellschaftlicher Teilhabe zu erhalten).“
    • Sowohl Chancen als auch Risiken erkennt ebenso eine absolute Mehrheit von rund 57 Prozent.
    • Nichts als Risiken in sozialen Medien sieht eine Minderheit von rund 19 Prozent, also rund jede*r Fünfte. „Zu dieser Gruppe gehören häufiger Ältere, Lehrkräfte sowie Personen, die soziale Medien nicht nutzen“, ergänzen die DIW-Forschenden.

    Das ambivalente Bild der DIW-Umfrage zeigt: Es geht viel Information verloren, wenn Meinungsforschende nur nach Verboten fragen. Solche Zuspitzungen machen Abwägungen unsichtbar, die Menschen durchaus treffen würden, wenn man ihnen die Gelegenheit dazu gibt.

    Umfragen sind keine Volksabstimmung

    Ein typischer Medienbericht über Meinungsumfragen endet, sobald alle wichtigen Zahlen abgehandelt wurden. In der Folge können die verschiedenen Lager einer Kontroverse die Zahlen als Argument nutzen. Das dürfte auch hier der Fall sein: Das ZDF-Politbarometer gießt Wasser auf die Mühlen der Fans eines Social-Media-Verbots. Die DIW-Umfrage gießt Wasser auf die Mühlen der Kritiker*innen. In beiden Fällen drohen Fehlschlüsse.

    Meinungsumfragen messen Meinungen; sie sind keine Volksabstimmungen. In der Social-Media-Debatte können Umfragen Hinweise liefern, welche Maßnahmen Menschen eher akzeptieren oder ablehnen würden. Was aber keine Meinungsumfrage messen kann: Ob eine Regulierung legitim, geeignet, erforderlich und angemessen ist. Dabei sind das die entscheidenden Fragen, an denen sich Regulierungen in einer Demokratie messen lassen müssen.

    Wenn es um ein Social-Media-Verbot geht, spielt es dennoch eine große Rolle, wie sehr Menschen es akzeptieren. Denn so ein Verbot trifft alle unmittelbar. Alle müssten sich zu den neuen Hürden und Kontrollen verhalten. Man kann sich entweder fügen und den Ausweis zücken – oder sich widersetzen und die Kontrollen umgehen. Der Erfolg eines Social-Media-Verbots hängt eng damit zusammen, wie Menschen damit umgehen.

    Die DIW-Forschenden schlussfolgern:

    Die Ergebnisse verdeutlichen, dass eine wirksame Regulierung der Social-Media-Nutzung für Kinder und Jugendliche nicht nur auf pauschale Verbote setzen sollte. Differenzierte Maßnahmenbündel werden von großen Teilen der Bevölkerung akzeptiert und haben daher größere Chancen auf Umsetzung.

    Für ein einheitliches Social-Media-Verbot mit flächendeckenden Alterskontrollen bräuchte es neue Gesetze in der EU. Keine neuen Regulierungen bräuchte es dagegen für mildere Mittel. Denn dafür gibt es schon das relativ neue Gesetz über digitale Dienste (DSA). Gerade läuft sogar ein Verfahren gegen TikTok, weil die EU-Kommission findet: das „süchtig machende Design von TikTok verstößt gegen den DSA“.

    Welchen Weg wollen Staaten einschlagen? Mit dieser Fragen beschäftigen sich gerade gleich zwei Expert*innen-Kommissionen: Sowohl auf Deutschland-Ebene als auch auf EU-Ebene sollen Fachleute bis Sommer Antworten zur Social-Media-Debatte vorlegen.

    Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

  35. Neue klicksafe-Elternbroschüre: „Mein Kind und KI. Aufwachsen mit künstlicher Nähe.“

    Im Fokus stehen KI-Chatbots und sogenannte KI-Begleiter oder auch AI Companions. klicksafe bietet Erziehenden Tipps und Hilfestellung zum Umgang mit KI im Familienalltag. Schaut doch mal rein! 👉 klicksafe.de/materialien/mein-

    #Jugendmedienschutz #FediEltern

  36. Melden Sie sich jetzt zu unseren Online-Qualifizierungen für #Jugendmedienschutz sowie #Medienbegleitung Grundschule ab 23. März 2026 an!

    Jugendmedienschutzberatung Sek. I: Start 23. März, Dauer 6 Wochen, PL-Nr. 26D0420011

    Medienbegleitung Primarstufe (GS, FöS): Start: 23. März, Dauer 8 Wochen PL-Nr. 26D0420001

    #stimtz #StarkimNetz #bildungdigital #Medienbildung #Medienkompetenz

  37. Via Charakter-Bots: Freundschaften mit Darstellerinnen und Darstellern der Lieblingsserie | jugendschutz.net recherchierte zum Thema Charakter-Bots und untersuchte, ob und wie schnell junge Nutzende in Gesprächen mit Bots auf problematische oder grenzüberschreitende Inhalte stoßen.

    Hier geht es zum Report: jugendschutz.net/themen/sexual

    #jugendmedienschutz #socialmedia #Medienbildung #FediEltern

  38. Macht Jugendschutz schlechter

    Australisches Modell: „Ein Social-Media-Verbot macht den Jugendschutz schlechter“

    Seit Australien Minderjährige aus sozialen Medien aussperrt, vergeht hier keine Woche ohne Forderungen nach ähnlichen Verboten. Im Interview warnt Medienrechtler Stephan Dreyer: Die politische Debatte habe sich von Forschung und Rechtslage entkoppelt.

    Bis zu ihrem 16. Geburtstag dürfen Kinder und Jugendliche in Australien keine Accounts auf Instagram, TikTok, YouTube oder Reddit haben. Seit dem 10. Dezember 2025 dürfen sie dort nichts liken, kommentieren oder gar selbst hochladen. Inhalte hinter einer Log-in-Schranke können sie sich nicht anschauen. Außer natürlich sie umgehen das Verbot mit simplen Werkzeugen wie VPN-Diensten.

    Dieses australische Modell fordern inzwischen auch führende Politiker*innen in Deutschland und Europa. Zu den prominenteren Befürwortern gehört der französische Präsident Emmanuel Macron. Ende Januar hat ein französisches Gesetz die erste Hürde in der Nationalversammlung genommen, dem Unterhaus des Parlaments. Ähnliche Vorstöße gibt es auch in Spanien, Griechenland und Österreich.

    In Deutschland hat die Bundesregierung zunächst eine Expert*innen-Kommission eingerichtet. Sie soll „Schritte für einen effektiven Kinder- und Jugendmedienschutz prüfen“. Dennoch ist die Debatte um ein Verbot bereits heißgelaufen. Sobald einzelne deutsche Politiker*innen das Social-Media-Verbot befürworten, machen Nachrichtenmedien daraus eine Schlagzeile.

    Währenddessen setzt die EU-Kommission bereits bestehende Jugendschutz-Regeln weiter um. Jüngst hat sie deshalb ein Verfahren gegen TikTok gestartet. Im Visier: Das süchtig machende Design der Plattform, deren algorithmisch sortierte Feeds für ihre Sogwirkung bekannt sind. Grundlage ist das Gesetz über digitale Dienste (DSA), das darauf abzielt, Plattformen so zu gestalten, dass Kinder und Jugendliche dort sicherer unterwegs sind.

    Ein aufmerksamer Beobachter der Politik rund um Jugendschutz im Netz ist der Medienrechtler Stephan Dreyer. Am Leibniz-Institut für Medienforschung beschäftigt er sich damit, was es heißt, mit digitalen Medien aufzuwachsen. Im Interview erklärt er, warum nationale Social-Media-Verbote in der EU auf tönernen Füßen stehen – und warum er ein Verbot für Minderjährige trotzdem kommen sieht.

    „Es geht um die mentale Krise der Jugend“

    Stephan Dreyer, warum wollen alle Social Media für Minderjährige verbieten?

    Das Thema kocht gerade global hoch. Zumindest medial wird kolportiert, dass wir eine mentale Krise der Jugend hätten. Demnach sind soziale Medien im schlimmsten Fall an dieser Krise schuld, im besten Fall sollen sie eine Mitschuld tragen. Als erstes ist Australien vorgeprescht. Seit dem 10. Dezember gibt es dort ein Social-Media-Verbot für unter 16-Jährige. Seitdem gibt es viele ähnliche Vorstöße, auch in Europa. Was mich daran überrascht, ist, wie entkoppelt der politische Diskurs von Rechtslage und Forschungslage stattfindet.

    Wie ist denn die Forschungslage?

    Komplex. Es ist unglaublich schwer, Mediennutzung als kausale Ursache psychischer Erkrankungen nachzuweisen. Es verdichten sich allerdings Hinweise, dass bestimmte Nutzungsformen mit bestimmten Erkrankungen zusammenhängen. Zum Beispiel hängt negatives Körperbefinden stark zusammen mit dem sozialen Vergleich auf Social Media. Ein anderes Beispiel sind körperliche Beeinträchtigungen durch Schlafmangel, wenn Kinder und Jugendliche spät abends soziale Medien nutzen. Studien zeigen zwar die Zusammenhänge, aber wir wissen nicht, ob sie kausal sind. Andererseits hat der Staat auch eine Vorsorgeaufgabe, was das gute Aufwachsen von Kindern angeht.

    Ist das australische Modell eine gute Vorsorge?

    Das wissen wir nicht. Es ist bisher nichts weiter passiert, als dass sich Plattform-Anbieter an das neue Gesetz gehalten und mehrere Millionen Accounts gelöscht und deaktiviert haben. Von einem Erfolg des Gesetzes lässt sich deshalb nicht sprechen. Denn es geht ja um die mentale Krise der Jugend. Bis wir hierzu Ergebnisse sehen, brauchen wir jede Menge gute Forschung und auch ein bisschen Zeit.

    Nationales Social-Media-Verbot „nicht anwendbar“

    EU-Staaten wie Frankreich, Österreich, Spanien und Griechenland wollen nicht warten. Sie wollen das australische Modell. Und zwar sofort. Geht das?

    Es gibt drei Hürden. Die erste ist die Frage, ob Mitgliedstaaten überhaupt ein tatsächlich anwendbares Social-Media-Verbot für Minderjährige einführen können. Das hängt mit dem bestehenden Europarecht zusammen. Dafür muss man in den Digital Services Act (DSA) schauen, der als Verordnung unmittelbar in allen Mitgliedstaaten gilt. Er ist vollharmonisierend, das heißt, er soll den unmittelbaren und abschließenden Rechtsrahmen für Plattform-Governance in der ganzen EU darstellen. Mitgliedstaaten haben also keine Spielräume, nationale Vorschriften für Online-Plattformen zu erlassen, die die gleichen Ziele wie der DSA verfolgen.

    Bevor wir über die anderen beiden Hürden sprechen – habe ich das richtig verstanden, ein einzelner EU-Staat darf gar kein nationales Social-Media-Verbot einführen?

    Doch. Das Gesetz darf beschlossen werden. Aber es ist nicht anwendbar.

    Man darf das Gesetz haben, aber nichts damit machen?!

    Genau. Der DSA hat als vollharmonisierendes EU-Recht sogenannten Anwendungsvorrang. Die Frage ist aber, was geschieht, wenn ein nationaler Gesetzgeber dennoch behauptet, das eigene Gesetz sei anwendbar. Und wenn Behörden dennoch anfangen, das Gesetz zu vollziehen. Dann müssten sich die Betroffenen – zum Beispiel Online-Plattformen – erst einmal wehren, und sagen: Das Gesetz ist doch nicht anwendbar. Oder aber sie fügen sich.

    Es wäre nicht das erste Mal, dass so etwas passiert. Auch das NetzDG in Deutschland war eklatant europarechtswidrig. Es wurde dennoch beschlossen, in Teilen umgesetzt und später durch einen neuen Gesetzsakt abgeschafft. Es hat den ganzen Lebenszyklus eines Gesetzes durchlaufen.

    „Schwere Eingriffe in die Teilhabe- und Kommunikationsrechte“

    Als Nicht-Jurist kann ich sagen, das ist verwirrend.

    Es kann noch verwirrender werden. Denkbar sind Regulierungen, die Plattformen nicht direkt adressieren, aber dennoch praktisch dazu führen, dass Minderjährige bis zu einer Altersgrenze keine Social-Media-Accounts haben dürfen. Das schafft noch mehr Unklarheit, ob der Anwendungsvorrang des DSA eigentlich umgangen wird oder nicht. Ich weiß aber nicht, ob wir in diese Verästelungen hineingehen wollen.

    Lieber nicht. Ich bin noch am verarbeiten, dass sich Mitgliedstaaten sehenden Auges über EU-Recht hinwegsetzen könnten. Was ist das EU-Recht wert, wenn Staaten am Ende tun und lassen, was sie wollen?

    Das ist, was mir Sorgen macht. Wenn Mitgliedstaaten sagen: Es gibt einen Rechtsrahmen, aber der ist uns egal, dann wirft das die Frage auf, ob man sich überhaupt noch an das Recht halten muss. Ich frage mich, welches Signal das senden soll.

    Wie lautet denn die zweite Hürde für nationale Social-Media-Verbote in der EU?

    Die zweite große Hürde ist das Herkunftslandsprinzip. Selbst, wenn man um den Anwendungsvorrang herumkommt oder ihn ignoriert, muss sich ein Anbieter nur an die nationalen Vorgaben des EU-Landes halten, in dem er seine Niederlassung hat. Bei den meisten Social-Media-Anbietern ist das Irland. Das heißt, sie müssen sich an irisches Recht halten.

    Also solange Irland kein Social-Media-Verbot einführt, könnten Plattformen die Aufsichtsbehörden anderer Länder einfach abblitzen lassen. Verstanden. Und die dritte Hürde?

    Das ist das Verhältnismäßigkeitsprinzip, dem jedes Gesetz genügen muss. Hier sind mehrere Fragen zu klären. Erfüllt das Gesetz einen legitimen Zweck? Klar ist Jugendschutz ein legitimer Zweck. Aber ist ein Social-Media-Verbot bis zu einer bestimmten Altersgrenze wirklich erforderlich, um diesen Zweck zu erreichen?

    … ist es das?

    Hier ist die empirische Evidenz widersprüchlich. Einerseits gibt es die beschriebenen Zusammenhänge zwischen Social-Media-Nutzung und Beeinträchigungen der psychischen Gesundheit. Andererseits bringen soziale Medien für Minderjährige gewichtige Vorteile mit sich: Kommunikation, Information, Austausch mit Peer Groups.

    Das wirft auch die Frage nach der Zumutbarkeit eines Social-Media-Verbot auf. Wir sprechen von schweren Eingriffen in die Teilhabe- und Kommunikationsrechte von Minderjährigen. Wenn es ein für den Zweck ebenso effizientes, milderes Mittel gibt, dann muss man das mildere Mittel wählen.

    „Man steht vor einer Weggabelung“

    Mildere Mittel hat die EU mit dem DSA geschaffen. Betroffene Anbieter müssen demnach prüfen, welche Risiken ihre Dienste für Minderjährige haben und diese Risiken mindern. Aber das scheint die Fürsprecher*innen des Social-Media-Verbots überhaupt nicht zu interessieren. Ist mit dem DSA etwas nicht in Ordnung?

    Aus Governance-Sicht bietet der DSA einen schönen Rechtsrahmen. Minderjährige werden nicht ausgeschlossen, aber Plattformanbieter sind laut Artikel 28 DSA dazu verpflichtet, altersangemessene Angebote zu gestalten. Sie müssen Funktionen und Inhalte altersgerecht anbieten. Mit Blick auf die Grundrechte von Kindern und Jugendliche ist das genau, was wir wollen.

    Also kann der DSA alle Sorgen lösen?

    Das wissen wir noch nicht. Der DSA greift erst seit Feburar 2024. Es hat nochmal ein halbes Jahr gedauert, bis die EU-Kommission handlungsfähig geworden ist. Erst seit September 2024 gibt es Verfahren gegen Plattformen. Aber was dabei genau passiert, wissen wir nicht. Die EU-Kommission liefert hier leider kaum Transparenz. Ich kann verstehen, wenn Menschen sagen: Sie sehen nicht, dass etwas passiert. Es ist noch viel Luft nach Oben bei der Umsetzung von Artikel 28.

    Das heißt, man steht vor einer Weggabelung. Entweder man sagt, wir müssen den Vollzug des geltenden Rechts stärker machen. Hier gab es nun gerade letzten Freitag die Mitteilung der EU-Kommission, dass sie in Bezug auf TikTok Verstöße gegen den DSA festgestellt hat. Oder man sagt: Wir müssen jetzt verbieten.

    Wer den Weg des Social-Media-Verbots wählt, hat diese großen Hürden vor sich. Warum tun Verbots-Befürworter wie Emmanual Macron oder Spaniens Ministerpräsident Pedro Sánchez so, als würden diese Hürden nicht existieren?

    Ich kenne die Beweggründe im Einzelnen nicht. Es kann sein, dass Regierungen mit ihren Forderungen Handlungsfähigkeit und Handlungswillen beweisen wollen. Sie könnten den Eindruck erwecken wollen, Probleme anzupacken. Die Vorstöße könnten auch Probebohrungen sein, um zu prüfen, wie die Außenwelt reagiert. Es ist aber auch möglich, dass die Mitgliedstaaten vorpreschen, um die EU-Kommission und den EU-Gesetzgeber unter Zugzwang zu setzen.

    „Mögliche Mehrheiten“ für EU-weites Verbot

    Könnte denn die EU selbst ein Social-Media-Verbot für Minderjährige einführen?

    Ja. Sie könnte mit einer neuen Verordnung ältere Vorgaben überschreiben. Das hätte auch Folgen für den DSA. Anbieter könnten ihre bisherigen Vorsorgemaßnahmen für unter 16-Jährige einstellen. Sie müssten sich um die Jüngeren keine Gedanken mehr machen – denn die dürften laut neuem Gesetz nicht mehr auf ihren Plattformen sein. Ein Social-Media-Verbot macht den Jugendschutz auf Plattformen schlechter.

    Will die EU das?

    Spätestens seit November 2025 zeichnet sich ab, dass alle drei Akteure der EU zu einem Social-Media-Verobt für Minderjährige bereit wären. Wir sehen, dass es im Rat und im EU-Parlament mögliche Mehrheiten dafür gibt. Kommissionspräsidentin Ursula von der Leyen hat im Herbst gesagt, dass sie Alterskontrollen zumindest prüfen will .

    Wie wahrscheinlich ist ein Social-Media-Verbot für Minderjährige in der EU?

    Ich bin der Meinung, dass wir nicht mehr über das Ob sprechen, sondern nur noch über das Wie.

    Gerade sind Kommission, Parlament und Rat in den finalen Verhandlungen zur CSA-VO, der „Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern“, bekannt als Chatkontrolle. Darin vorgesehen sind – je nach Ausgestaltung – auch strenge und verpflichtende Alterskontrollen für App-Stores und „interpersonelle Kommunikationsdienste“. Also Plattformen mit Chatfunktion. Kurzum, es kann auf Alterskontrollen für die meisten sozialen Medien hinauslaufen. Wo rutschen wir da gerade hinein?

    Die Alterskontrollen stehen seit 2022 im Entwurf der EU-Kommission, doch die politische Diskussion hat sich allein an der Chatkontrolle entzündet. Jetzt ist die Zeit knapp, um noch viel dagegen zu tun. Es ist möglich, dass die Verhandlungen schon im Herbst abgeschlossen sind. Es kann also gut sein, dass wir schon sehr bald ein Gesetz haben, das strenge Alterskontrollen für viele Anbieter in der EU vorschreibt.

    „Wir reden von einer Diskriminierungs-Technologie“

    Dann würde nur noch eine feste Altersgrenze für soziale Medien fehlen, und das australische Modell wäre komplett. Welche Folgen hätten solche Alterskontrollen für Europa?

    Ein Gesetz für umfassende Altersüberprüfungen wäre erst der Anfang der Probleme. So eine Vorschrift ist vergleichsweise schnell geschrieben. Dann kommt die Umsetzung. Australien hat einen mehr als 1.000-seitigen Bericht darüber vorgelegt, wie unterschiedlich intrusiv verschiedene Technologien zur Altersüberprüfung sind, welche auch negativen Effekte sie haben können, welche Akzeptanzprobleme in der Bevölkerung sie mit sich bringen.

    Was bedeutet das für uns?

    Wenn die Altersüberprüfungen kommen, werden wir uns noch umschauen. Und das meine ich nicht als Drohung. Wir reden von einer Diskriminierungs-Technologie, denn sie soll Menschen nach ihrem Alter diskriminieren. Und immer, wenn man so etwas tut, gibt es einen Fallout, also Fehler in beide Richtungen.

    Es wird Menschen geben, die zu jung sind, aber die Altersprüfungen umgehen, und Menschen, die alt genug sind, aber keine Möglichkeit haben, das dem System zu beweisen. Das ist eine Standardsituation der Technikfolgenabschätzung. Je flächendeckener eine Technologie eingeführt wird, desto größer der Fallout.

    Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

  39. #SID26 | @klicksafe brachte den Safer Internet Day mit einem interaktiven Livestream für Schulklassen aus dem gesamten Bundesgebiet direkt ins Klassenzimmer.

    An der anschließenden Paneldiskussion nahm auch Yunus, jugendliches Beiratsmitglied der BzKJ, teil.

    Er fordert Orientierung, Wissen und Räume für Austausch, damit das Aufwachsen mit Künstlicher Intelligenz gut gelingt.

    #FediEltern #Jugenbeteiligung #Jugendmedienschutz #sid

  40. RE: social.bund.de/@BzKJ/115898639

    👀 Schon gesehen? Das Förderprogramm der @BzKJ unterstützt digitale Angebote und Maßnahmen, die Kindern und Jugendlichen altersgerechte digitale Erfahrungen ermöglichen oder diese unterstützen.

    ❗ Bewerbungsschluss ist der 27. Februar 2026!

    🔗 Weitere Informationen gibt es hier: bzkj.de/bzkj/service/alle-meld

    🙂 Wir freuen uns auf eure Bewerbungen!

    #Jugendmedienschutz #digitaleTeilhabe #FediEltern #bzkjförderung

  41. Am 27. Januar gedenken wir der Opfer des Nationalsozialismus. Erinnerung ist keine rückwärtsgewandte Geste, sondern Verantwortungsübernahme in der Gegenwart.

    Für den Kinder- und #Jugendmedienschutz heißt das: Schutz vor Hass, extremistischer Propaganda und bewusster Desinformation.

    #NieWieder #WeRemember #HolocaustGedenktag

  42. 👏Tolle Kinderwebseiten!

    Das SEITENSTARK-GÜTESIEGEL von @seitenstark erhalten 2025 insgesamt 11 Kinderwebseiten in den Bereichen:

    ➡️ Lernen & Erfahren
    ➡️ Mitmachen
    ➡️ Medienkompetenz

    Kriterien:
    ✅ Kindgerechte Konzeption.
    ✅ Vermitteln positive Grundwerte.
    ✅ Leisten Beitrag zur Medienkompetenz.
    ✅ Ermöglichen Kindern Teilhabe.
    ✅ Sorgen für Schutz und Sicherheit.

    Hier geht es zur Übersicht: seitenstark.de/eltern-und-lehr

    #Kinderseiten #Jugendmedienschutz #seitenstark #Fedieltern #Auszeichnung

  43. Online Stress? Mobbing? Unsicherheit?

    👉 JUUUPORT bietet Kindern und Jugendlichen Peer-to-Peer-Beratung. Die geschulten Scouts helfen bei Themen wie Cybermobbing, Hate Speech, Belästigung, Medienstress oder Datenschutz – anonym, vertraulich und auf Augenhöhe.

    🔗 Mehr Infos und Hilfe: juuuport.de/

    #JUUUPORT #BZKJ #Jugendschutz #OnlineBeratung #Cybermobbing #Jugendmedienschutz #DigitalerRaum #HilfeImNetz #PeerToPeer #RespektImNetz #FediEltern

  44. Online Stress? Mobbing? Unsicherheit?

    👉 JUUUPORT bietet Kindern und Jugendlichen Peer-to-Peer-Beratung. Die geschulten Scouts helfen bei Themen wie Cybermobbing, Hate Speech, Belästigung, Medienstress oder Datenschutz – anonym, vertraulich und auf Augenhöhe.

    🔗 Mehr Infos und Hilfe: juuuport.de/

    #JUUUPORT #BZKJ #Jugendschutz #OnlineBeratung #Cybermobbing #Jugendmedienschutz #DigitalerRaum #HilfeImNetz #PeerToPeer #RespektImNetz #FediEltern

  45. Online Stress? Mobbing? Unsicherheit?

    👉 JUUUPORT bietet Kindern und Jugendlichen Peer-to-Peer-Beratung. Die geschulten Scouts helfen bei Themen wie Cybermobbing, Hate Speech, Belästigung, Medienstress oder Datenschutz – anonym, vertraulich und auf Augenhöhe.

    🔗 Mehr Infos und Hilfe: juuuport.de/

    #JUUUPORT #BZKJ #Jugendschutz #OnlineBeratung #Cybermobbing #Jugendmedienschutz #DigitalerRaum #HilfeImNetz #PeerToPeer #RespektImNetz #FediEltern

  46. Online Stress? Mobbing? Unsicherheit?

    👉 JUUUPORT bietet Kindern und Jugendlichen Peer-to-Peer-Beratung. Die geschulten Scouts helfen bei Themen wie Cybermobbing, Hate Speech, Belästigung, Medienstress oder Datenschutz – anonym, vertraulich und auf Augenhöhe.

    🔗 Mehr Infos und Hilfe: juuuport.de/

    #JUUUPORT #BZKJ #Jugendschutz #OnlineBeratung #Cybermobbing #Jugendmedienschutz #DigitalerRaum #HilfeImNetz #PeerToPeer #RespektImNetz #FediEltern

  47. 400 #Schulen besucht: Was #Kinder im #Netz erleben, und was #Politik daraus lernen kann.

    In seinem #Buch „Allein mit dem Handy“ beschreibt #Digitaltrainer Daniel Wolff lebhaft, was Kinder ihm beigebracht haben – über ihre Erlebnisse im Netz und ihre Angst vor den Eltern. Das Buch hebt die Debatte um #Jugendmedienschutz auf ein neues Level. Eine #netzpolitische Rezension.

    netzpolitik.org/2025/400-schul

  48. 💬 #Demokratieförderung beginnt mit Zuhören, Mitreden und Mitgestalten – auch im Netz.

    📌 #Medienbildung & Medienkompetenz
    📌 Diskurs & Kompromissfindung

    👧🧑‍💻 Kinder und Jugendliche brauchen Räume, in denen sie digitale Teilhabe sicher und selbstbestimmt erleben können.

    #InternationalerTagderDemokratie #Demokratie #Jugendmedienschutz #FediEltern #TagDerDemokratie

  49. Unsauber

    Alterskontrollen im Netz: Drogenbeauftragter Streeck argumentiert unsauber – Ein Zitat des Drogenbeauftragten ging diese Woche durch große Nachrichtenmedien. Mit angeblich wissenschaftlicher Begründung sprach sich Hendrik Streeck (CDU) für Alterskontrollen im Netz aus. Doch an dem Zitat ist etwas faul. Ein Kommentar.

    Forderungen nach Alterskontrollen im Netz sind gerade in Mode. Nach den Bundesministerinnen für Justiz (SPD) und Familie (CDU) sind jüngst auch die beiden Bundesbeauftragten für Missbrauch und Drogen dem Trend gefolgt. Nachrichtenmedien reagieren darauf routiniert mit Schlagzeilen.

    Die Forderungen stehen jedoch weitgehend losgelöst von der juristischen und medienpädagogischen Debatte. Aus medienpädagogischer Perspektive sind pauschale Alterskontrollen wenig zielführend. Vielmehr plädieren Fachleute für verschiedene Maßnahmen, je nach Risiko für betroffene Minderjährige. Aus juristischer Perspektive wiederum sind die Spielräume für pauschale Alterskontrollen sehr klein, gerade auf nationaler Ebene. Vielmehr gibt es Rechtsgrundlagen für verschiedene Maßnahmen, je nach Risiko für betroffene Minderjährige.

    Es gibt also eine Schnittmenge aus dem, was medienpädagogisch sinnvoll und juristisch möglich wäre. Das könnte die Grundlage für eine seriöse Debatte sein. Stand aktuell ist davon aber wenig zu sehen.

    Bemerkenswert unseriös ist ein Zitat des Drogenbeauftragten der Bundesregierung, Hendrik Streeck. Im Interview mit der Rheinischen Post vom 25. August sagte der CDU-Politiker:

    Ich bin dafür, dass es künftig strikt abgestufte Altersvorgaben für soziale Medien gibt und die Altersprüfungen auch wirklich wirksam stattfinden. Denn es ist wissenschaftlich nachgewiesen, dass Kinder und Jugendliche, die in hohem Maße nicht altersgerechte Inhalte konsumieren, anfälliger für riskantes Suchtverhalten und problematischen Drogenkonsum werden.

    Renommierte Nachrichtenmedien von tagesschau.de bis n-tv haben dieses Zitat unkritisch übernommen. Es steht exemplarisch für die Oberflächlichkeit der aktuellen Debatte und ist deshalb einen genauen Blick wert. Für die Analyse braucht es zwei Schritte.

    Erstens: Irreführender Bezug auf „nicht altersgerechte Inhalte“

    Streeck spricht von nicht altersgerechten Inhalten. Das ist ein Sammelbegriff. Eine anschauliche Auffächerung bietet die Kommission für Jugendmedienschutz. Riskant für Minderjährige sind demnach unter anderem:

    • Darstellungen von Gewalt,
    • Darstellungen von Sexualität,
    • Angebote, die offen Diskriminierungen propagieren,
    • Angebote, die zu zu riskantem und selbstschädigendem Verhalten anregen,
    • Werbung, die Unerfahrenheit und Leichtgläubigkeit ausnutzt,
    • Werbung für Alkohol, Tabak und Glücksspiel.

    Streeck zufolge sollen solche Inhalte also Suchtverhalten und Drogenkonsum fördern. Heißt das, Erotik macht Durst auf Bier? Und wer Werbung für Lootboxen sieht, greift vermehrt zum Bubatz?

    Wir haben die Stelle um Erklärung gebeten: Auf welche wissenschaftlichen Quellen bezieht sich der Drogenbeauftragte? Geantwortet hat die Pressestelle mit Verweisen auf mehrere Studien. Diese beziehen sich aber nicht pauschal auf „nicht altersgerechte Inhalte“, sondern spezifisch auf Darstellung von Drogenkonsum. In diesem Fall lässt sich der Zusammenhang tatsächlich belegen: Mediale Darstellung von Drogen kann demnach deren Konsum fördern.

    Wir halten fest: Der Bezug auf „nicht altersgerechte Inhalte“ im Streeck-Zitat ist zu pauschal – und deshalb irreführend.

    Zweitens: Dünner Bezug zu Alterskontrollen

    Im ersten Schritt der Analyse wurde geklärt, dass der Drogenbeauftragte seine Forderung nach Alterskontrollen auf Darstellung von Drogenkonsum stützt. Der zweite Schritt der Analyse zeigt: Darstellung von Drogenkonsum spielt in der Debatte um Alterskontrollen für soziale Medien nur eine untergeordnete Rolle.

    • Eine Grundlage für Alterskontrollen im Netz ist die EU-Richtlinie für audiovisuelle Mediendienste(AVMD-RL). Demnach sollen „grundlose Gewalttätigkeiten und Pornografie“ den „strengsten“ Maßnahmen wie Alterskontrollen unterliegen, weil sie als „schädlichste“ Inhalte gelten. Darstellungen von Drogenkonsum fallen nicht darunter.
    • Weiter reguliert die AVMD-RL Werbung für Tabak und Alkohol. So darf audiovisuelle Werbung für alkoholische Getränke „nicht speziell an Minderjährige gerichtet sein und darf nicht den übermäßigen Genuss solcher Getränke fördern“. Aber „strengste“ Maßnahmen wie Alterskontrollen sind hier nicht vorgesehen.
    • Auch das Gesetz über digitale Dienste (DSA) kann Grundlage für Alterskontrollen sein. Mehr dazu steht in den Leitlinien der EU-Kommission. Demnach können „Risiken im Zusammenhang mit dem Kauf und Gebrauch“ von Drogen durchaus Alterskontrollen begründen. Maßnahmen müssen jedoch für jeden betroffenen Dienst angemessen und verhältnismäßig sein.
    • In Deutschland sucht die Medienaufsicht mit der Software KIVI automatisch nach potenziell schädlichen Inhalten für Jugendliche im Netz. Darunter fällt auch die Verherrlichung von Drogen. Die meisten Funde lieferte das Tool, Stand 2022, allerdings für politischen Extremismus und Pornografie.

    Wischi-waschi-Verweise

    Völlig an den Haaren herbeigezogen ist die Verbindung zwischen sozialen Medien und der Darstellung von Drogenkonsum nicht. Im Jahr 2023 zeigte etwa eine Analyse im Auftrag des Gesundheitsministeriums, „dass Werbung für E-Zigaretten und Tabakerhitzer in sozialen Medien in Deutschland – trotz Verbots – weit verbreitet und für die meist jungen Nutzerinnen und Nutzer der Plattformen zugänglich ist“.

    Mit viel Fantasie lässt sich im Streeck-Zitat zumindest das Anliegen erkennen, die Debatte um Alterskontrollen um eine bislang wenig beachtete Dimension zu erweitern, nämlich um die möglicherweise problematische Darstellung von Drogen in sozialen Medien. Auf dieser Grundlage ließe sich diskutieren, ob Alterskontrollen in diesem Fall geeignet, erforderlich und zweckmäßig wären – oder auch nicht. Und ob mildere Mittel einer drastischen Maßnahme wie Alterskontrollen nicht vorzuziehen wären.

    Strenge Alterskontrollen bedeuten praktisch: Alle Menschen müssen sich ausweisen oder ihr Gesicht biometrisch scannen lassen. Die Auswirkungen auf Grundrechte sind enorm. Aus gutem Grund sind die gesetzlichen Hürden dafür sehr hoch. Der Dachverband europäischer Organisationen für digitale Freiheitsrechte, EDRi, lehnt die Maßnahme sogar gänzlich ab, auch im Sinne der betroffenen Kinder. Umso wichtiger ist es, Forderungen nach Alterskontrollen gut zu begründen. Mit schnoddrig formulierten Wischi-waschi-Verweisen auf wissenschaftliche Belege klappt das nicht.

    Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

    Lesen Sie ergänzend auch:

    Esther Menhard/netzpolitik: Bildungs-ID: Bundesregierung will Schüler zentral erfassen – Die Bundesregierung will die zentrale Schüler-ID. Doch Datenschützer*innen, Wissenschaftler*innen und Gewerkschafter*innen sind sich einig: Die Privatsphäre Minderjähriger steht auf dem Spiel.”

    und

    Markus Reuter/netzpolitik: Schüler-ID: Magischer Glaube an die zentrale Datenbank – Politiker:innen verbinden mit der zentralen Schüler-ID große Hoffnungen. Doch primär entsteht ein großes Datenschutzproblem und noch mehr Überwachung. Investitionen in Bildung könnten ganz woanders gebraucht werden. Ein Kommentar.”

    Über Sebastian Meineck - netzpolitik:

    Unter der Kennung "Gastautor:innen" fassen wir die unterschiedlichsten Beiträge externer Quellen zusammen, die wir dankbar im Beueler-Extradienst (wieder-)veröffentlichen dürfen. Die Autor*innen, Quellen und ggf. Lizenzen sind, soweit bekannt, jeweils im Beitrag vermerkt und/oder verlinkt.

  50. 📌 Was passiert, wenn Inhalte als jugendgefährdend eingestuft werden? Was ist die Aufgabe der Prüfstelle für jugendgefährdende Medien? Wie läuft ein Indizierungsverfahren ab?

    Auf bzkj.de erklärt die BzKJ unter dem Stichwort „Indizierung“ Prozesse und gesetzliche Grundlagen.

    Stichwort „Indizierung“: 🔗 bzkj.de/bzkj/indizierung
    Was wird indiziert? 🔗 bzkj.de/bzkj/indizierung/was-w
    Was bewirkt die Indizierung? 🔗 bzkj.de/bzkj/indizierung/was-b

    #Kinderrechte #Jugendmedienschutz #bzkj #FediEltern