Social‑Media‑Verbot — oder doch erstmal umsetzen?

Die Diskussion über ein mögliches Social‑Media‑Verbot für Kinder scheint aktuelle ein gutes Thema zu sein, solle es doch unsere Kinder schützen. Leider fehlt hier der differenzierte Blick darauf und die Reaktionen sind oft reflexartig. Denn bevor man über Verbote spricht, die eine erhebliche Einschränkung der Kinderrechte in Bezug auf Teilhabe an der digitalen Welt bedeuten, lohnt der Blick auf das, was auf EU‑Ebene längst möglich wäre – wenn europäische Vorgaben auch gegen die Techgiganten durchgesstzt werden.

Seit dem 14. Juli 2025 liegen die offiziellen EU‑Leitlinien zum Schutz Minderjähriger vor. Sie zeigen sehr klar:

„Safety by Design“ statt Verbote

– und zwar sofort anwendbar, rechtlich fundiert über Art. 28 DSA. Artikel 28 Online-Schutz Minderjähriger ~ Digital-Services-Act (DSA)

Was heute schon möglich wäre – ohne ein einziges Verbot:

  • Private Konten als Standard für Minderjährige. Wenn Minderjährige standardmäßig mit privaten Konten starten, dürfen ihre Inhalte, Daten und Profilinformationen für Fremde nicht sichtbar sein – dadurch sinkt das Risiko von unerwünschten Kontaktaufnahmen, Grooming und Datenmissbrauch erheblich.
  • Entschärfte Empfehlungssysteme Wenn Empfehlungssysteme für Minderjährige entschärft werden, bedeutet das vor allem: Kinder rutschen deutlich seltener in algorithmische Rabbit Holes und sehen weniger potenziell schädliche Inhalte — weil Plattformen nicht mehr primär ihr Verhalten auswerten, sondern sicherheitsorientierte Signale priorisieren.
  • Opt‑in für Gruppenchats, einfache Blockierfunktionen. Kinder und Jugendliche dürfen nicht automatisch in einen Gruppenchat hinzugefügt werden. Stattdessen müssen sie aktiv zustimmen, bevor sie einer Gruppe beitreten. Das schützt sie u. a. davor, ungefragt in große oder fremde Gruppen geworfen zu werden, Kontaktanfragen von Unbekannten zu erhalten, in Mobbing‑ oder problematische Chat‑Situationen hineingezogen zu werden. Die EU‑Leitlinien nennen diese Funktion ausdrücklich als Schutzmaßnahme gegen Cybermobbing und unerwünschte Kontakte
  • Deaktiviertes Autoplay, Streaks, Push‑Suchtmechaniken. Wenn suchterzeugende Mechaniken standardmäßig deaktiviert sind, sinkt das Risiko, dass Kinder in Endlos‑Nutzung abrutschen – weil die Plattform weniger aktiv versucht, sie im Flow zu halten oder zu „re-engagen“.
  • Screenshot‑/Download‑Sperren für Kinderinhalte. Durch Sperren von Downloads und Screenshots wird die ungewollte Weiterverbreitung persönlicher Inhalte von Minderjährigen verhindert – und damit das Risiko von Bloßstellung, Erpressung oder Missbrauch deutlich reduziert.
  • Schutz vor manipulativen Geschäftsmodellen wie Lootboxen. Wenn manipulative Kaufanreize eingeschränkt werden, werden Kinder weniger in intransparente, potenziell suchtfördernde oder kostenintensive Mechanismen gelockt – und können digital souveräner handeln.
  • Bessere Moderation & Meldesysteme. Stärkere Moderations- und Meldesysteme sorgen dafür, dass problematische Inhalte schneller erkannt werden und Kinder nach Meldungen verlässliche Rückmeldungen erhalten – was Cybermobbing und belastende Situationen spürbar reduziert.

Alle das steht in den EU‑Guidelines.

Warum wurde das dann noch nicht durchgesetzt?

1. Weil die Leitlinien neu und nicht verbindlich sind

Die EU‑Guidelines sind erst seit Juli 2025 veröffentlicht und gelten als Orientierung, nicht als Gesetz. Plattformen haben also Spielraum – und nutzen ihn. Sie basieren jedoch auf dem Digital Services Act (DSA) der seit 2023/2024 vollständig in Kraft getreten ist und in Artikel 28 bereits die gesetzliche Pflicht, Minderjährige besonders zu schützen beinhaltet. Die EU‑Guidelines vom 14. Juli 2025 dienen dazu, zu präzisieren, wie Plattformen diese Pflichten konkret erfüllen sollen – sie schaffen keine neuen Regeln, sondern erklären die bestehenden. – Commission publishes guidelines on the protection of minors | Shaping Europe’s digital future

2. Weil die EU erst mit Ermittlungen begonnen hat

Gegen Meta laufen Verfahren wegen Suchtmechaniken und problematischer Algorithmen – aber keines ist abgeschlossen, daher keinerlei Druck. – Social-Media-Sucht: Droht Meta und Google ein Imagebruch? )

3. Weil Age‑Verification noch in der Pilotphase steckt

Die EU arbeitet gerade mit fünf Staaten an einer gemeinsamen Altersverifikations‑App, aber sie ist noch kein Standard. – Der EU-Ansatz zur Altersüberprüfung | Gestaltung der digitalen Zukunft Europas

4. Weil nationale Alleingänge die Lage komplizieren

Frankreich, Spanien und Griechenland drängen auf strengere Altersgrenzen oder sogar Verbote – was zu einem gefährlichen Regel‑Flickenteppich führt.


Fazit: Das Problem ist nicht der Mangel an Möglichkeiten, sondern der Mangel an Umsetzung.

Alles, was ein Verbot vermeintlich erreichen soll, ist bereits heute umsetzbar – technisch und regulatorisch. Wir brauchen keine symbolpolitischen Verbotsdebatten. Wir brauchen Durchsetzung dessen, was schon da ist.

Matthias Körnich
Matthias Körnich
Artikel: 16

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert