„Die Frage ist nicht, ob junge Menschen Zugang zu sozialen Medien haben sollten. Die Frage ist, ob soziale Medien Zugang zu jungen Menschen haben sollten."
Dieser Satz — am 12. Mai 2026 von EU-Kommissionspräsidentin Ursula von der Leyen auf dem Europäischen Gipfel zu Künstlicher Intelligenz und Kindern in Kopenhagen ausgesprochen — markiert das bisher klarste Signal, dass Brüssel das Verhältnis von Plattformen zu Kindern grundlegend neu gestalten will. Die Kommission hat angekündigt, dass der kommende Digital Fairness Act (DFA) „süchtig machende und schädliche Designpraktiken" direkt regulieren wird — endloses Scrollen, Autoplay, Push-Benachrichtigungen und die algorithmischen Systeme, die Minderjährige täglich stundenlang an ihre Bildschirme binden.
TikTok ist für die meisten Kinder das erste soziale Netzwerk, das sie unbedingt haben wollen — und das letzte, bei dem Eltern ein gutes Gefühl haben. Dieses Bauchgefühl täuscht nicht. Die ehrliche Antwort auf die Frage „Ist TikTok sicher für mein Kind?" lautet 2026: Das hängt vom Alter des Kindes ab, davon, was Eltern einzurichten bereit sind, und davon, wie ausführlich in der Familie darüber gesprochen wird, was das Kind auf der Plattform sieht.
Fast die Hälfte aller Jugendlichen gibt an, sich süchtig nach sozialen Medien zu fühlen. Das ist kein Zufall. Die Plattformen, die sie täglich nutzen — Instagram, TikTok, Snapchat, YouTube — wurden so gestaltet, dass man sie nur schwer weglegen kann. Im Jahr 2026 beginnen Gerichte und Regulierungsbehörden weltweit, dies als das zu behandeln, was es ist: eine bewusste Geschäftsstrategie, die auf der Aufmerksamkeit von Kindern aufbaut.
Hier erfahren Eltern, wie diese Plattformen funktionieren, was die Forschung zeigt und was dagegen unternommen wird.