home.social

#digitalfairnessact — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #digitalfairnessact, aggregated by home.social.

  1. Langweiliger werden

    Breakpoint: Soziale Medien müssen langweiliger werden

    Große Techkonzerne investieren Milliarden, um uns so lange wie möglich auf ihren Plattformen zu halten. Mit Erfolg: Viele von uns verbringen nahezu ein Viertel ihrer Lebenszeit online. Damit bringen wir den Betreibern ordentlich Geld ein – ob wir das wollen oder nicht. Ändern soll das ein neues EU-Gesetz.

    Es lässt mich nicht los, dieses kleine, viereckige Gerät. Das eine Ding, das ich immer bei mir trage, selbst wenn ich nur vom Schlafzimmer in die Küche laufe. In der Bahn, in Pausen, beim Warten an der Ampel, vorm Einschlafen, direkt nach dem Aufwachen: In jeder freien Sekunde geht mein erster Griff zum Smartphone. Selbst wenn ich Besseres zu tun hätte und selbst wenn mich der Inhalt eigentlich gar nicht interessiert oder ich vom Scrollen schon längst Kopfschmerzen habe. Auch dann, wenn ich eigentlich nicht frei habe. Wenn ich – so wie jetzt gerade – eine Hausarbeit für die Uni schreiben sollte oder eine Kolumne abgeben muss.

    Meine durchschnittliche tägliche Bildschirmzeit auf Instagram beträgt zwei Stunden. Zwei Stunden jeden Tag. Auf ein Jahr hochgerechnet sind das 730 Stunden, die ich mit einer einzigen App verbracht habe. In dieser Zeit hätte ich im vergangenen Jahr eine Sprache lernen oder ein gesamtes zusätzliches Studiensemester im Umfang von 30 ECTS abschließen können. Ganz abgesehen von der Zeit, die ich auf WhatsApp, beim Surfen oder mit Serien verbringe. Mir ist das seit Jahren bewusst. Und trotzdem ändert sich nichts. Das ist kein persönliches Versagen. Es ist Systemdesign.

    Laut einer Studie aus dem Jahr 2025 verbringen deutsche Jugendliche zwischen 12 und 19 Jahren im Schnitt über 200 Minuten täglich im Netz. Das entspricht einem Teilzeitjob. 68 Prozent der Befragten stimmen der Aussage zu: „Es kommt oft vor, dass ich mich vergesse und viel mehr Zeit am Handy verbringe, als ich geplant hatte.“ Das ist kein Charakterproblem. Das ist das Ergebnis von Milliarden Euro, die in Systeme investiert wurden, um genau das zu erreichen.

    By Design

    Soziale Medien sind längst nicht nur Unterhaltungsmedien. Sie sind Aufmerksamkeitsmaschinen. Ihr Geschäftsmodell basiert nicht auf guten Inhalten, die produzieren sie nicht einmal selbst. Und wenn wir ehrlich sind, ist der meiste Content in Sozialen Medien weder besonders unterhaltsam noch bereichernd.

    Das Geschäftsmodell basiert darauf, menschliche Aufmerksamkeit zu binden, zu messen und in Werbeeinnahmen zu verwandeln. Je länger wir scrollen, desto wertvoller sind wir als Nutzer. Unsere Zeit ist das Produkt.

    Die Mechanismen sind gut dokumentiert: Plattformen wie Meta und ByteDance setzen auf denselben neurobiologischen Mechanismus wie Spielautomaten: den variablen Verstärkungsplan. Das Gehirn schüttet Dopamin nicht aus, wenn es eine Belohnung erhält, sondern während es eine erwartet. Es ist das Vielleicht, das süchtig macht. Vielleicht unterhält mich der nächste Clip besser als der davor.

    Dazu kommen Endlosscrolling ohne natürliche Pause, Push-Benachrichtigungen im Sekundentakt, Empfehlungssysteme, die nicht das Interessanteste zeigen, sondern das, was uns emotional am stärksten aktiviert. Der Schließen-Button kleiner und grauer als der Weiter-Button. Die Datenschutzeinstellungen hinter drei Menüs versteckt. Die Kündigung, die nach jeder Menge Kleingedrucktem den Account nur für dreißig Tage stilllegt.

    All das zusammen ergibt eine Architektur, in der Freiheit simuliert wird – du kannst ja jederzeit aufhören – aber strukturell verhindert. Wer hier „zu viel“ Zeit verbringt, hat nicht versagt. Er hat sich einem System ergeben, das dafür optimiert wurde, ihn auf der Plattform zu halten. Und das es gleichzeitig schafft, uns all das als emanzipatorisch zu verkaufen.

    Soft Power reicht nicht aus

    Auf solche Probleme antworten Entscheidungsträger gerne mit weichen Steuerungselementen: etwa mehr Medienkompetenz in der Schule. Das ist nicht falsch. Aber es ist unzureichend – selbst wenn dieser Forderung endlich einmal ernsthaft nachgegangen würde. Es wäre so, als würde man einem rauchenden Jugendlichen sagen, er solle mehr Willenskraft aufbringen, anstatt Tabakwerbung zu regulieren und Zigarettenhersteller zur Verantwortung zu ziehen.

    Das strukturelle Problem ist eine fundamentale Machtasymmetrie: Auf der einen Seite Unternehmen mit Milliardenumsätzen und Tausenden Mitarbeitern, die sich rund um die Uhr mit einer Frage beschäftigen: Wie halten wir Menschen möglichst lange auf der Plattform? Und auf der anderen Seite Nutzer, die – selbst wenn sie wissen, wie ihnen da eigentlich geschieht – nahezu keine Möglichkeit haben, sich davor zu schützen und gleichzeitig weiterhin große Online-Plattformen zu nutzen.

    Brüssel will mehr digitalen Verbraucherschutz

    Nach Jahren der Diskussion plant die EU-Kommission den Digital Fairness Act (DFA); ein Gesetz, das das digitale Verbraucherrecht grundlegend neugestalten soll. Grundlage ist eine Erhebung aus dem Oktober 2024, deren Befund ernüchternd ausfiel: Die bestehenden EU-Verbraucherschutzgesetze taugen für das digitale Zeitalter nicht. Verbraucher werden durch manipulative Online-Praktiken zu Vertragsabschlüssen verleitet, die sie sonst nicht getätigt hätten.

    Der DFA soll nach aktueller Beschreibung seitens des EU-Parlaments unter anderem vier Kernprobleme regulieren: Dark Patterns, suchterzeugendes Design, Influencer-Marketing und die unlautere Personalisierung durch die Plattformbetreiber selbst.

    Kein Wunder, dass die Plattformen dagegen Sturm laufen. TikTok erklärte in der Konsultation zum geplanten Gesetz, es bestehe nur sehr begrenzter Bedarf an zusätzlicher Regulierung. ByteDance, Meta, Google: Sie alle wissen, was auf dem Spiel steht. Weniger manipulatives Design bedeutet weniger Verweildauer, weniger Werbeeinnahmen.

    Die EU hat mit DSA, DMA und AI Act bereits ambitionierte Digitalgesetze verabschiedet. Diese Regelwerke haben eine gemeinsame Leerstelle: Sie regulieren Inhalte und Marktmacht, nicht das Design der Plattformen. Der DFA soll genau diese Lücke schließen. Entscheidend wird – wie so oft – die Durchsetzung des Acts sein. Die EU hat eine unrühmliche Geschichte, ambitionierte Gesetze zu verabschieden und sie anschließend unzureichend durchzusetzen.

    „Langweiliger“, aber freier

    Ich will keine App-freie Welt. Keine vordigitale Idylle, wie sie so mancher Kulturpessimist allzu gerne zeichnet. Was ich will, ist die tatsächliche Freiheit, darüber zu entscheiden, wie ich meine Zeit verbringe. Eine App-Architektur, die mich nicht gegen mich selbst ausspielt.

    Soziale Medien müssen langweiliger werden. Nicht im Sinne schlechterer Inhalte – die sind ohnehin meist beliebig. Sondern im Sinne eines Designs ohne psychologische Fallen. Das zu ermöglichen, ist eine politische Entscheidung. Und es wird Zeit, dass diese Entscheidung zugunsten der Verbraucher in Brüssel getroffen wird.

    Carla Siepmann schreibt seit 2022 frei für netzpolitik.org. Sie interessiert sich für Gewalt im Netz, Soziale Medien und digitalen Jugendschutz. Seit 2023 erscheint ihre monatliche Kolumne auf netzpolitik.org. Kontakt: [email protected], @CarlaSiepmann. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

  2. Frente a voces de retirada del proyecto, firmamos junto con 86 orgs. una carta a la Comisión Europea para pedir que se mantenga #DigitalFairnessAct #DFA.

    ➡️ Pedimos normas claras contra prácticas abusivas como dark patterns, diseño adictivo o perfilado
    beuc.eu/sites/default/files/pu

  3. Tech lobby groups are intensifying their efforts to derail the forthcoming #DigitalFairnessAct, which aims to rein in the addictive design of social media 34 tech lobby groups have asked the Commission for a “pause and reset" ⚠️ We've joined over 200 NGOs and academics in insisting on a strong #DFA

    RE: https://bsky.app/profile/did:plc:il3qbhsn3ejitwzu4n6ehspd/post/3mgwnhs2al22n

  4. Addicted to the algorithm – New research exposes how #BigTech lobbies to keep us hooked on #SocialMedia

    Olivier Hoedeman, @corporateeurope research and campaign coordinator:

    > The addictive design of social media has become a major societal problem with serious impacts on public health and endangering the future of democracy.

    #DiDay #ChildProtecion #SocialMediaBan #DigitalFairnessAct #DFA #Meta #Google #Bildung #FediLZ

  5. Ursachenbekämpfung statt Verbote

    Social-Media-Debatte

    In Los Angeles stehen Meta und Google vor Gericht, in der EU muss TikTok nachschärfen. In beiden Fällen geht es um ihr süchtig machendes Design. Das verweist auf einen besseren Weg im Kinder- und Jugendschutz: Ursachenbekämpfung statt Verbote. Ein Kommentar.

    „Ich male mir die Welt, so wie sie mir gefällt.“ – Das gelingt den Plattformbetreibern hinter Instagram, Youtube, Snapchat oder TikTok bisher ganz gut. Das in Los Angeles eröffnete Verfahren könnte an diesem Prinzip jedoch rütteln und zeigen, dass es etwas anderes als ein Verbot für Jugendliche braucht, um die negativen Effekte sozialer Medien zu reduzieren.

    Die 20-jährige Hauptklägerin will Meta und Google für ihr süchtig machendes Design zur Verantwortung ziehen. Vor Gericht gibt sie an, seit über zehn Jahren von sozialen Medien abhängig zu sein – einem Effekt, dem sich die Unternehmen laut interner Dokumente bewusst waren. Und wenn man ehrlich ist: Es ist ein Effekt, den die kommerziellen Plattformen wollen, damit sich die Aufenthaltszeit auf Plattformen verlängert, sie mehr Werbung an die Nutzer*innen abspielen und so mehr Gewinne einfahren können.

    Wenn in den USA eine Person vor Gericht geht, deren Generation bisher am frühesten in der digitalen Welt aufgewachsen ist, führt das unweigerlich zu der Frage, wie für diese und nachfolgende Generationen eine bessere und andere Version von sozialen Medien aussehen könnte. Denn ob mit dem Verfahren letztlich ein Präzedenzfall geschaffen werden kann oder nicht – der Prozess stärkt eine andere Stoßrichtung als das derzeit heiß diskutierte Social-Media-Verbot.

    Ein Verbot ist die falsche Antwort

    Von einem Verbot sozialer Medien für junge Menschen werden viele negative Effekte erwartet: Für Minderheiten oder vulnerable Gruppen fällt ein Kanal zur Vernetzung und Gemeinschaftsbildung weg, ebenso ein Kanal zur Information, Menschen ohne Papiere könnten ganz ausgeschlossen sein und auf Kinder und Jugendliche entfallen die Folgen je nach Familiensituation und Wohnort ungleich.

    Diese Nebeneffekte müssten weniger ins Gewicht fallen, wenn unterm Strich auf den Plattformen und ohne Verbot das ursprüngliche Ziel erreicht werden würde: Schutz von Kindern und Jugendlichen vor digitalem Missbrauch, vor Mobbing sowie übermäßigem Konsum und Sucht.

    Ein Blick nach Australien zeigt, dass Verbote einerseits löchrig bleiben und andererseits große Risiken für Privatsphäre und Datenschutz bergen. Wie die australische Regierung erwartet hatte, finden Jugendliche einfach Schlupflöcher, das Verbot zu umgehen. Sie ändern ihren Standort über VPN-Verbindungen, legen sich neue Accounts an, wechseln auf nicht betroffene Apps oder nutzen Accounts von älteren Personen. Mit KI-generierten Bildern, Ausweisen von Älteren oder oder durch einfaches Stirnrunzeln bestehen sie Altersabfragen, die jetzt zur Architektur von Plattformen dazugehören.

    Sollte die australische Regierung an diesen Stellen nachschärfen, bleiben Alterskontrollen aus datenschutzrechtlicher Perspektive trotzdem bedenklich. Ein vorab durchgeführtes Gutachten verzeichnet massive Bedenken, wie erhobene Daten gesammelt und an Behörden weitergegeben werden könnten. Das ist der eine Fall. Der andere Fall ist auch datenschutzrechtlich problematisch, wenn personenbezogene Daten aus Alterskontrollen an Drittanbieter weitergegeben werden, wie der Fall von Discord verdeutlicht.

    Plattformen in die Pflicht nehmen statt Probleme in die Zukunft verlagern

    Der Medienrechtler Stephan Dreyer erwartet, dass ein EU-Verbot den Jugendschutz auf sozialen Plattformen verschlechtern würde, wie er gegenüber netzpolitik.org darlegte.

    Dazu kommt: Soziale Medien sind allgegenwärtiger Teil des Lebens auf der ganzen Welt. Haben Jugendliche die magische Grenze von 16 Jahren überschritten, sind sie zusammen mit den Älteren weiterhin endlosen Feeds, manipulativem Design, personalisierten Empfehlungssystemen und Dopamin-Kicks ausgesetzt. Statt „Cybergrooming“ heißt die Gefahr dann „digitale Gewalt“, wie der Grok-Skandal gerade deutlich vor Augen geführt hat.

    Und warum eigentlich nur Jugendliche? Sind nicht auch gestandene Mittvierziger dem suchtmachenden Design der Plattformen verfallen und geraten nicht auch Boomerinnen in den Strudel, der sie in den verschwörungsideologischen Kaninchenbau zieht? Werden nicht uns allen polarisierende Inhalte von intransparenten Algorithmen gezeigt, damit wir möglichst lange mit den Plattformen interagieren und sie uns mit personalisierter Werbung zuballern können.

    Bessere Plattformen für alle

    Ein Verbot für Jugendliche macht die Plattformen nicht besser. Anstatt Plattformen zur Umsetzung von Alterskontrollen zu zwingen und junge Menschen auszuschließen, müssen die Plattformen zu einer anderen Architektur verpflichtet werden. Fairness by Design und by Default nennt sich der Ansatz, der digitale Plattformen dazu verpflichtet, ihre Webseiten und Apps nutzerfreundlich und manipulationsfrei zu gestalten. Die EU ist gegenüber TikTok einen Schritt gegangen, aber die Liste an manipulativen Techniken ist lang.

    Ein Verbot ist letztlich eine platte und hilflose Maßnahme. Es erinnert an überforderte Eltern, die den Kindern das Handy wegnehmen, weil sie nicht weiterwissen. Dabei könnten auch die Verbotsbefürworter*innen beim Ansatz Fairness by Design auf ihre Kosten kommen. Er wäre einer von mehreren Ansätzen, die Plattformen nachhaltig zu verändern. Und es gibt Gesetzgebungen wie das Digitale-Dienste-Gesetz oder wie das geplante Gesetz für digitale Fairness, mit denen man Plattformen verändern kann.

    Die Politik muss sich nur trauen – und nicht weiter vor der Lobby der Tech-Riesen einknicken.

    Laura Jaruszewski ist von Januar bis März 2026 Praktikantin bei Netzpolitik. Ansonsten studiert sie in Göttingen Sozialwissenschaften und interessiert sich für Überwachungstechnologien und antifeministische Bewegungen im Netz. Kontakt: E-Mail (OpenPGP). Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

  6. "You’ve certainly experienced it: you grab your phone to do something specific, and end up getting lost in the maze of stimuli – sounds, colours, videos, notifications, urgent messages –so much so that you forget why you picked up the phone in the first place and stay far longer on it than planned. We keep inventing new words to describe aspects of the experience, whether it’s doomscrolling, internet rabbit holes, or brainrot. The good news is, this isn’t just something that happens to you. There’s a growing political consensus that this is a structural problem by design, that Big Tech has gone too far, and EU legislation is on the way to give you more control over addictive features in social media apps. The bad news is, Big Tech has begun a full scale lobbying battle against this legislation.

    As the European Commission is preparing rules to rein in the addictive design of social media app –­ as part of the forthcoming Digital Fairness Act – the tech industry is drawing on its considerable lobbying firepower to oppose it. The legislation comes in response to growing concerns about the public health impacts of social media addiction, both for children, adolescents, and adults alike. But the Big Tech giants behind Facebook, Instagram, TikTok, Snapchat, and other social media apps are pushing back. Keeping people on the apps for as long as possible is a central part of their business model and restrictions in addictive features would hurt their profits and power. In its lobbying, Big Tech aims to capitalize on the fact that EU decision-makers – with Commission President von der Leyen in the lead – are currently heavily prioritising industrial competitiveness via deregulation over other concerns. This means there are major new obstacles for legislation to pass."

    corporateeurope.org/en/2026/02

    #SocialMedia #BigTech #EU #Lobbying #DFA #DigitalFairnessAct #Addiction #BrainRot

  7. Habt ihr schon den geplanten 🇪🇺 #DigitalFairnessAct (#DFA) auf dem Schirm?

    Mit dem Gesetz soll Michael #McGrath, neuer EU-Kommissar für Demokratie, Justiz & Rechtsstaatlichkeit, für besseren digitalen #Verbraucherschutz sorgen. Dazu gehört mEn auch digitaler #Klimaschutz!

    Input der #Zivilgesellschaft dringend nötig! Ich unterstütze gern dabei.

    blog.campact.de/2024/11/digita im Blog von @campact

    @bitsundbaeume_berlin @germanwatch @informatik @Bundesverband

  8. Missed the European Parliament hearing of commissioner designate for Democracy, Justice and the Rule of Law, Michael #McGrath? Check out this thread by @edri and learn more about what we heard (and didn’t hear) about the upcoming #DigitalFairnessAct, #DataRetention and #GDPR.
    Bonus: Find out why the #DigitalRights community is rolling its eyes at the buzzword #competitiveness today.
    eupolicy.social/@edri/11342930
    #EUPolicy