« La question n’est pas de savoir si les jeunes doivent avoir accès aux réseaux sociaux. La question est de savoir si les réseaux sociaux doivent avoir accès aux jeunes. »
Cette phrase — prononcée par la présidente de la Commission européenne Ursula von der Leyen le 12 mai 2026 lors du Sommet européen sur l’intelligence artificielle et les enfants à Copenhague — marque le signal le plus clair à ce jour de la volonté de Bruxelles de redessiner la manière dont les plateformes traitent les enfants. La Commission a annoncé que le futur Digital Fairness Act (DFA) ciblera directement les « pratiques de conception addictives et nocives » — défilement infini, lecture automatique, notifications push et systèmes algorithmiques qui maintiennent silencieusement les mineurs rivés à leur écran pendant des heures chaque jour.
TikTok est, pour la plupart des enfants, le premier réseau social qu’ils réclament — et le dernier pour lequel les parents se sentent à l’aise. Cette intuition est fondée. En 2026, la réponse à « TikTok est-il sûr pour mon enfant ? » est : cela dépend de son âge, de ce que les parents sont prêts à mettre en place, et du temps consacré en famille à parler de ce que l’enfant y voit.
Près de la moitié des adolescents déclarent se sentir dépendants des réseaux sociaux. Ce n’est pas un hasard. Les plateformes qu’ils utilisent chaque jour — Instagram, TikTok, Snapchat, YouTube — ont été conçues pour être difficiles à lâcher. En 2026, les tribunaux et les régulateurs du monde entier commencent à traiter cela pour ce que c’est : une stratégie commerciale délibérée construite sur l’attention des enfants.
Voici ce que les parents doivent savoir sur le fonctionnement de ces plateformes, ce que montrent les données et ce qui est fait pour y remédier.