„Die Frage ist nicht, ob junge Menschen Zugang zu sozialen Medien haben sollten. Die Frage ist, ob soziale Medien Zugang zu jungen Menschen haben sollten."

Dieser Satz — am 12. Mai 2026 von EU-Kommissionspräsidentin Ursula von der Leyen auf dem Europäischen Gipfel zu Künstlicher Intelligenz und Kindern in Kopenhagen ausgesprochen — markiert das bisher klarste Signal, dass Brüssel das Verhältnis von Plattformen zu Kindern grundlegend neu gestalten will. Die Kommission hat angekündigt, dass der kommende Digital Fairness Act (DFA) „süchtig machende und schädliche Designpraktiken" direkt regulieren wird — endloses Scrollen, Autoplay, Push-Benachrichtigungen und die algorithmischen Systeme, die Minderjährige täglich stundenlang an ihre Bildschirme binden.

Im Folgenden: was im neuen Gesetz steckt, welche Verfahren gegen TikTok, Meta und X laufen und was Familien jetzt tun können, solange die Regeln noch entworfen werden.

6 %
Höchstbußgeld nach DSA — Anteil am weltweiten Jahresumsatz. Diese Größenordnung droht TikTok bereits heute.

Was am 12. Mai 2026 angekündigt wurde

Die Rede in Kopenhagen umriss drei ineinandergreifende Maßnahmen:

  1. Ein Digital Fairness Act, dessen Gesetzesvorschlag bis Ende 2026 erwartet wird. Er soll süchtig machendes Design und Dark Patterns in verbrauchernahen digitalen Diensten ausdrücklich regulieren.
  2. Strengere Grenzen für KI in sozialen Medien, einschließlich KI-Werkzeugen, die intime Bilder erzeugen — eine direkte Reaktion auf Berichte, wonach das Grok-Tool von X sexuelle Darstellungen von Frauen und Kindern generiert.
  3. Ein Vorstoß für Mindestaltersgrenzen in der gesamten EU, gestützt auf die neue Altersnachweis-App der EU, die diesen Sommer in Pilotländern startet.

Der DFA wird auf dem bestehenden Digital Services Act (DSA) aufbauen, der bereits in laufenden Verfahren gegen die größten Plattformen angewendet wird. Beide Gesetze zusammen bilden die regulatorische Antwort Europas auf ein Geschäftsmodell, das auf der Aufmerksamkeit Minderjähriger basiert.

Der TikTok-Fall: Vom Verfahren zur vorläufigen Feststellung

Warum die Kommission jetzt eskaliert, zeigt der TikTok-Vorgang.

Am 6. Februar 2026 hat die Europäische Kommission vorläufig festgestellt, dass TikTok gegen den DSA verstößt. Es war das erste Mal, dass die Kommission Design statt illegale Inhalte ins Visier nahm. Die konkret genannten Merkmale:

  • Endloses Scrollen, das natürliche Haltepunkte beseitigt
  • Autoplay von Videos, das ohne Nutzeraktion weiterläuft
  • Push-Benachrichtigungen, die gezielt zurück in die App ziehen
  • Personalisierte Empfehlungssysteme, die jeden Nutzer — auch Minderjährige — profilieren, um die Verweildauer zu maximieren

Die Kommission stellte fest, dass TikTok nicht angemessen geprüft hatte, wie diese Merkmale das physische und psychische Wohlbefinden der Nutzer schädigen können, insbesondere von Minderjährigen und schutzbedürftigen Erwachsenen. Außerdem habe TikTok eindeutige Hinweise auf zwanghafte Nutzung ignoriert — beispielsweise die Zeit, die Minderjährige nachts in der App verbringen, und wie häufig junge Nutzer die App erneut öffnen.

Das Urteil der Kommission über die bestehenden Schutzmechanismen von TikTok fiel deutlich aus: Bildschirmzeit-Werkzeuge und elterliche Kontrollen seien „leicht zu umgehen und mit geringer Reibung verbunden". Mit anderen Worten: Die Sicherheitsfunktionen waren Fensterdekoration.

Wird die vorläufige Feststellung bestätigt, drohen TikTok Bußgelder von bis zu 6 % des weltweiten Jahresumsatzes — eine Summe, die in den Milliardenbereich gehen kann.

06.02.2026
Vorläufige Feststellung der EU-Kommission: Das Suchtdesign von TikTok verstößt gegen den Digital Services Act

Meta: Das eigene Mindestalter nicht durchgesetzt

Der Vorwurf gegen Meta ist anders gelagert, aber nicht weniger ernst. Instagram und Facebook verlangen beide, dass Nutzer mindestens 13 Jahre alt sind. Die vorläufige Einschätzung der Kommission, ausgedrückt in der Rede in Kopenhagen, lautet: Meta hat sein eigenes Mindestalter nicht durchgesetzt.

Eine Checkbox mit der Frage „Bist du über 13?" hat noch nie ein entschlossenes zehnjähriges Kind aufgehalten. 2021 zeigten geleakte interne Forschungen von Meta, dass das Unternehmen bereits wusste, dass Instagram mit Körperbildproblemen und Depressionen bei Mädchen im Teenageralter zusammenhängt. Die Plattform änderte sich nicht wesentlich.

Im Oktober 2025 stellte die Kommission außerdem fest, dass sowohl TikTok als auch Meta systematisch Forschende blockiert hatten, die untersuchen wollten, wie Inhalte auf den Plattformen Kinder erreichen — ein separater Verstoß gegen die Transparenzpflichten des DSA. Das mögliche Bußgeld aus diesem Verfahren wurde auf insgesamt rund 20 Milliarden Dollar geschätzt.

X und das Grok-Problem

Die dritte beobachtete Plattform ist X, wo die Kommission die Nutzung des KI-Tools Grok untersucht, das sexuelle Darstellungen von Frauen und Kindern erzeugt. Das ist das bislang deutlichste Beispiel dafür, wie generative KI völlig neue Schadenskategorien schafft — und warum der Digital Fairness Act ausdrückliche Grenzen für den KI-Einsatz auf Verbraucherplattformen enthalten wird.

Was „Suchtdesign" konkret bedeutet

Die Sprache der Kommission ist präzise. „Suchtdesign" ist keine allgemeine Klage darüber, dass Jugendliche zu viel Zeit online verbringen. Es ist eine konkrete Liste von Produktentscheidungen, die gemeinsam darauf ausgelegt sind, Selbstkontrolle auszuhebeln:

Endlos-Feeds. Eine Seite ohne Ende lehrt das Gehirn, dass immer eine weitere Belohnung direkt unter dem sichtbaren Bereich wartet.

Autoplay. Wer dem Nutzer die Wahl nimmt, das nächste Video zu starten, verschiebt den Standard von „aufhören" zu „weitermachen".

Variable Belohnungen. Likes, Kommentare und „Für dich"-Überraschungen kommen nach einem Muster, das Spielautomaten nachahmt — unvorhersehbar, aber häufig genug, um Nutzer am Ziehen zu halten.

Push-Benachrichtigungen. Ein Vibrieren in der Hosentasche alle paar Minuten verwandelt das Telefon in einen Spielautomaten, der sich meldet, wenn er zu lange ungenutzt war.

Personalisierte Empfehlungssysteme. Algorithmen, die die Schwachstellen jedes Nutzers profilieren — auch die von Kindern — und den Feed auf Engagement statt Wohlbefinden optimieren.

Die von der Kommission zitierte Forschung zeigt, dass diese Muster „den Drang zum Weiterscrollen anheizen und das Gehirn der Nutzer in den Autopilot-Modus versetzen", die Selbstkontrolle verringern und zwanghaftes Verhalten verstärken. Diese Forschung und die TikTok-Feststellungen sind die juristische Grundlage dafür, Suchtdesign als systemisches Risiko zu behandeln — die Schwelle, die für ein Eingreifen nach dem DSA erforderlich ist.

Die Altersnachweis-App: Pilot diesen Sommer

Die Durchsetzungsstrategie der Kommission steht und fällt damit, zu wissen, wer ein Kind ist. Genau diese Lücke soll die neue EU-Altersnachweis-App schließen.

Im April 2026 als technisch einsatzbereit angekündigt, nutzt die App Zero-Knowledge-Beweise — eine kryptografische Methode, mit der Nutzer beweisen können, dass sie über einem bestimmten Alter sind, ohne weitere persönliche Daten preiszugeben. Kein Geburtsdatum, kein Passscan, kein Gesicht auf einem Unternehmensserver.

Sieben Mitgliedsstaaten integrieren die App in ihre nationalen digitalen Identitätswallets noch in diesem Jahr:

  • 🇩🇰 Dänemark — Gastgeber der Ankündigung vom 12. Mai, treibt bereits ein Verbot für unter 15-Jährige voran
  • 🇫🇷 Frankreich — Senat hat im April 2026 ein Verbot für unter 15-Jährige verabschiedet
  • 🇬🇷 Griechenland — Verbot für unter 15-Jährige für Januar 2027 angekündigt
  • 🇮🇹 Italien — Digitales Einwilligungsalter auf 14 festgelegt
  • 🇪🇸 Spanien — Organisches Gesetz zum Minderjährigenschutz in der parlamentarischen Phase
  • 🇨🇾 Zypern — Verbot für unter 15-Jährige angekündigt, EU-App + Digital Citizen
  • 🇮🇪 Irland — Coimisiún na Meán setzt verbindliche Online-Sicherheitskodizes durch

Der öffentliche Download wird für Sommer 2026 erwartet, die nationalen Wallet-Integrationen folgen bis Jahresende.

Wie der DFA die Regeln verändern wird

Der Digital Fairness Act ist noch ein Entwurf, doch der Geltungsbereich ist von der Kommission klar umrissen. Der Vorschlag — fällig zwischen Oktober und Dezember 2026 — wird folgende Themen erfassen:

  • Suchtdesign in verbrauchernahen digitalen Produkten
  • Dark Patterns, die Nutzer in ungewollte Entscheidungen drängen
  • Personalisierte Preise auf Basis von Tracking und Profiling
  • Influencer-Marketing an Kinder
  • Spielwährungen mit glücksspielähnlichen Mechaniken
  • KI-Einsatz in sozialen Medien

Anders als der DSA, der sich auf die größten „Very Large Online Platforms" konzentriert, wird der DFA voraussichtlich breiter greifen — über verschiedene Verbrauchermärkte hinweg — und mit dem bestehenden Verbraucherschutzrecht zusammenwirken. Für Familien bedeutet das praktisch: Die rechtliche Definition eines „unfairen" digitalen Dienstes wird sich auf genau die Designentscheidungen erweitern, die Kinder an ihre Bildschirme fesseln.

Q4 2026
Erwarteter Termin für den Gesetzesvorschlag zum Digital Fairness Act (DFA)

Was Familien jetzt tun können

Der DFA ist noch ein Vorschlag. Die Altersnachweis-App wird noch ausgerollt. Die TikTok-Verfahren werden sich über Monate oder Jahre hinziehen. Nichts davon hilft einem Kind, das heute Abend in der App ist.

Fünf konkrete Schritte, die heute schon wirken:

  1. Push-Benachrichtigungen für alle Social-Media-Apps auf dem Kindergerät abschalten. Das ist die Einzeländerung mit dem größten Effekt auf zwanghaftes Checken. Viele der von der EU markierten Suchtdesign-Merkmale hängen davon ab, dass Benachrichtigungen die Arbeit des Zurückziehens übernehmen.

  2. Bildschirmzeitkontrollen auf Geräteebene nutzen (iOS Bildschirmzeit, Google Family Link), um feste Tageslimits zu setzen. Diese Werkzeuge sind nicht perfekt — die Kommission fand TikToks eigene Version „leicht zu umgehen" — aber ein systemweites Limit, das von Eltern gesetzt wird, ist schwerer zu umgehen als eine In-App-Erinnerung.

  3. Eine tragbare Filterschicht hinzufügen. Geräte-Kontrollen decken ein Gerät ab, Router-Kontrollen ein Netzwerk. Ein Familien-VPN mit DNS-Filterung blockiert Social-Media-Kategorien auf dem Gerät des Kindes überall — heimisches WLAN, mobile Daten, Schulnetzwerk, Urlaub.

  4. Das Gespräch führen. Die Feststellungen der EU sind nicht geheim. Einem dreizehnjährigen Kind zu erklären, dass die Kommission TikTok formell beschuldigt, die App so zu gestalten, dass Nutzer das Zeitgefühl verlieren, ist ein nützlicheres Gespräch als ein allgemeines „Weniger Handy".

  5. Auf das Schlafsignal achten. Die Kommission nannte ausdrücklich nächtliche Nutzung durch Minderjährige als Indikator für zwanghaftes Verhalten, den TikTok ignorierte. Wenn ein Kinderhandy zwischen Mitternacht und 6 Uhr aktiv ist, ist das eines der deutlichsten Warnsignale.

Wie es weitergeht

Der Digital Fairness Act wird 2026 noch nicht Gesetz sein — Vorschläge dieser Größenordnung brauchen achtzehn Monate oder mehr, um Parlament und Rat zu passieren. Aber die Richtung ist klar. Der DSA gibt der Kommission bereits heute die Werkzeuge, Plattformen mit Milliardenbußgeldern für Suchtdesign zu belegen. Der DFA wird diese Werkzeuge auf KI, auf Dark Patterns und auf eine breitere Palette digitaler Dienste ausweiten. Die Altersnachweis-App wird Mindestaltersregeln erstmals durchsetzbar machen.

Die Botschaft für Familien: Europa behandelt endlich das Design sozialer Medien — nicht nur die Inhalte darauf — als das eigentliche Problem. Die Ära „Wir stellen nur eine neutrale Plattform bereit" geht zu Ende. Die Ära, in der Designs danach beurteilt werden, ob sie Minderjährigen schaden, beginnt.

Weiterlesen: Wie Tech-Konzerne Sucht zum Geschäftsmodell gemacht haben, die EU-Altersnachweis-App und was Eltern heute tun können und ob TikTok für Kinder sicher ist.

Was ist der Digital Fairness Act?
Der Digital Fairness Act (DFA) ist eine bevorstehende EU-Verordnung, deren Vorschlag zwischen Oktober und Dezember 2026 erwartet wird. Er zielt ausdrücklich auf süchtig machende Designmuster, Dark Patterns, Influencer-Marketing an Kinder, Spielwährungsmechaniken, personalisierte Preise und den KI-Einsatz in sozialen Medien. Er wird neben dem bestehenden Digital Services Act stehen und die Regeln auf ein breiteres Spektrum verbrauchernaher digitaler Dienste ausweiten.
Warum nimmt die EU gerade TikTok ins Visier?
Am 6. Februar 2026 stellte die Europäische Kommission vorläufig fest, dass TikTok mit seinem Suchtdesign gegen den Digital Services Act verstößt — konkret durch endloses Scrollen, Autoplay, Push-Benachrichtigungen und das personalisierte Empfehlungssystem. Die Kommission fand, dass TikTok die Risiken für Minderjährige nicht angemessen geprüft und Hinweise auf zwanghafte Nutzung wie nächtliche App-Aktivität ignoriert habe. Bei Bestätigung drohen Bußgelder von bis zu 6 % des weltweiten Jahresumsatzes.
Was wird Meta vorgeworfen?
Die vorläufige Einschätzung der Kommission ist, dass Meta — über Instagram und Facebook — sein eigenes Mindestalter von 13 Jahren nicht durchgesetzt hat. Ein separates Verfahren, das im Oktober 2025 eröffnet wurde, wirft sowohl Meta als auch TikTok vor, systematisch Forschende blockiert zu haben, die untersuchen wollten, wie Inhalte auf den Plattformen Kinder erreichen — ein Verstoß gegen die Transparenzpflichten des DSA.
Wann wird die EU-Altersnachweis-App verfügbar sein?
Die Europäische Kommission hat im April 2026 angekündigt, dass die App technisch einsatzbereit ist. Der öffentliche Download wird für den Sommer 2026 erwartet. Sieben Mitgliedsstaaten — Dänemark, Frankreich, Griechenland, Italien, Spanien, Zypern und Irland — integrieren die App bis Ende 2026 in ihre nationalen digitalen Identitätswallets. Die App nutzt Zero-Knowledge-Beweise, mit denen Nutzer eine Altersanforderung erfüllen können, ohne das Geburtsdatum oder andere persönliche Daten preiszugeben.
Was können Eltern tun, bevor die neuen Regeln gelten?
Push-Benachrichtigungen für Social-Media-Apps abschalten, Bildschirmzeit-Limits auf Geräteebene setzen, eine tragbare Filterschicht hinzufügen, die mit dem Gerät reist (ein Familien-VPN mit DNS-Filter deckt heimisches WLAN, mobile Daten und Schulnetzwerke ab), ein ehrliches Gespräch darüber führen, wie die Plattformen gestaltet sind, um Selbstkontrolle auszuhebeln, und auf nächtliche App-Aktivität achten — die EU nannte späte Nutzung durch Minderjährige ausdrücklich als Warnsignal für zwanghaftes Verhalten.

Dieser Artikel spiegelt die regulatorische Lage in der EU mit Stand 13. Mai 2026 wider. Der Digital Fairness Act ist ein Vorschlag in Entwicklung; der Digital Services Act ist in Kraft und wird aktiv durchgesetzt. Für einen breiteren Blick auf nationale Gesetze siehe den globalen Überblick zur Kinderschutzgesetzgebung 2026.