« La question n’est pas de savoir si les jeunes doivent avoir accès aux réseaux sociaux. La question est de savoir si les réseaux sociaux doivent avoir accès aux jeunes. »
Cette phrase — prononcée par la présidente de la Commission européenne Ursula von der Leyen le 12 mai 2026 lors du Sommet européen sur l’intelligence artificielle et les enfants à Copenhague — marque le signal le plus clair à ce jour de la volonté de Bruxelles de redessiner la manière dont les plateformes traitent les enfants. La Commission a annoncé que le futur Digital Fairness Act (DFA) ciblera directement les « pratiques de conception addictives et nocives » — défilement infini, lecture automatique, notifications push et systèmes algorithmiques qui maintiennent silencieusement les mineurs rivés à leur écran pendant des heures chaque jour.
Voici ce que les familles doivent savoir sur la nouvelle législation, les enquêtes en cours contre TikTok, Meta et X, et ce que les parents peuvent faire pendant que les règles sont encore en cours de rédaction.
Ce qui a été annoncé le 12 mai 2026
Le discours de Copenhague a esquissé trois mesures imbriquées :
- Un Digital Fairness Act, dont la proposition législative est attendue d’ici fin 2026. Il régulera explicitement le design addictif et les dark patterns dans les services numériques destinés aux consommateurs.
- Des limites plus strictes pour l’IA dans les réseaux sociaux, y compris pour les outils d’IA qui génèrent des images intimes — réponse directe aux révélations sur l’outil Grok de X générant des images sexuelles de femmes et d’enfants.
- Une exigence d’âge minimum dans toute l’Union, soutenue par la nouvelle application européenne de vérification d’âge dont le pilote démarre cet été.
Le DFA s’appuiera sur le Digital Services Act (DSA) déjà en vigueur, qui est utilisé dans des procédures actives contre les plus grandes plateformes. Ensemble, ces deux lois forment la réponse réglementaire européenne à un modèle économique bâti sur l’attention des mineurs.
Le dossier TikTok : de l’enquête à la conclusion préliminaire
Pour comprendre l’escalade de la Commission, il faut regarder le dossier TikTok.
Le 6 février 2026, la Commission européenne a publié une conclusion préliminaire constatant que TikTok avait enfreint le DSA. C’était la première fois que la Commission ciblait le design plutôt que les contenus illicites. Les caractéristiques spécifiquement nommées :
- Le défilement infini qui supprime les points d’arrêt naturels
- La lecture automatique des vidéos, qui se poursuit sans action de l’utilisateur
- Les notifications push conçues pour ramener l’utilisateur dans l’application
- Les systèmes de recommandation personnalisés qui profilent chaque utilisateur — y compris les mineurs — pour maximiser le temps passé
La Commission a estimé que TikTok n’avait pas évalué correctement la manière dont ces fonctionnalités peuvent nuire au bien-être physique et mental des utilisateurs, en particulier des mineurs et des adultes vulnérables. Elle a également constaté que TikTok avait ignoré des signaux clairs d’usage compulsif — par exemple le temps passé la nuit par les mineurs sur l’application, et la fréquence à laquelle les jeunes utilisateurs rouvrent l’application.
Le verdict de la Commission sur les garde-fous existants de TikTok a été sans détour : les outils de gestion du temps d’écran et les contrôles parentaux étaient « faciles à désactiver et n’introduisaient qu’une friction limitée ». Autrement dit, les fonctions de sécurité n’étaient qu’une façade.
Si la conclusion préliminaire est confirmée, TikTok s’expose à des amendes pouvant atteindre 6 % de son chiffre d’affaires annuel mondial — un montant qui peut se chiffrer en milliards d’euros.
Meta : le non-respect de sa propre limite d’âge
L’accusation contre Meta est différente mais tout aussi sérieuse. Instagram et Facebook exigent tous deux que les utilisateurs aient au moins 13 ans. L’avis préliminaire de la Commission, exprimé dans le discours de Copenhague, est que Meta n’a pas fait respecter son propre âge minimum.
Une case à cocher demandant « Avez-vous plus de 13 ans ? » n’a jamais arrêté un enfant de dix ans déterminé. Des recherches internes de Meta divulguées en 2021 montraient que l’entreprise savait déjà qu’Instagram était lié à des problèmes d’image corporelle et à la dépression chez les adolescentes. La plateforme n’a pas significativement changé.
En octobre 2025, la Commission avait également constaté que TikTok et Meta avaient systématiquement bloqué des chercheurs voulant étudier comment les contenus atteignent les enfants sur leurs plateformes — une violation distincte des obligations de transparence du DSA. L’exposition combinée à ces procédures a été estimée à environ 20 milliards de dollars d’amendes potentielles.
X et le problème Grok
La troisième plateforme sous surveillance est X, où la Commission examine l’utilisation de l’outil d’IA Grok pour générer des images sexuelles de femmes et d’enfants. C’est l’exemple le plus clair à ce jour de la manière dont l’IA générative crée des catégories de préjudice entièrement nouvelles — et de la raison pour laquelle le Digital Fairness Act inclura des limites explicites au déploiement de l’IA sur les plateformes sociales destinées aux consommateurs.
Ce que recouvre vraiment le « design addictif »
Le vocabulaire de la Commission est précis. Le « design addictif » n’est pas une plainte générale sur le fait que les adolescents passent trop de temps en ligne. C’est une liste précise de décisions produit qui, prises ensemble, sont conçues pour court-circuiter la maîtrise de soi :
Les fils infinis. Une page sans fin apprend au cerveau qu’il y a toujours une récompense supplémentaire juste sous l’écran.
La lecture automatique. Retirer à l’utilisateur le choix de lancer la vidéo suivante fait passer le réglage par défaut de « arrêter » à « continuer ».
Les récompenses variables. Likes, commentaires et surprises de la rubrique « Pour toi » arrivent selon un schéma qui mime les machines à sous — imprévisible, mais suffisamment fréquent pour maintenir l’utilisateur sur le levier.
Les notifications push. Une vibration dans la poche toutes les quelques minutes transforme le téléphone en machine à sous qui sonne dès qu’elle reste trop longtemps inactive.
Les systèmes de recommandation personnalisés. Des algorithmes qui profilent les vulnérabilités de chaque utilisateur — y compris celles des enfants — et optimisent le fil pour l’engagement, pas pour le bien-être.
Les recherches scientifiques citées par la Commission montrent que ces mécanismes « alimentent la pulsion de continuer à défiler et font basculer le cerveau de l’utilisateur en mode pilote automatique », réduisant la maîtrise de soi et renforçant le comportement compulsif. Ces recherches et les constats sur TikTok constituent le fondement juridique permettant de traiter le design addictif comme un risque systémique — le seuil requis pour agir au titre du DSA.
L’application de vérification d’âge : pilote cet été
La stratégie d’exécution de la Commission dépend de la capacité à savoir qui est un enfant. C’est exactement la lacune que la nouvelle application européenne de vérification d’âge vise à combler.
Annoncée comme techniquement prête en avril 2026, l’application utilise les preuves à divulgation nulle de connaissance — une méthode cryptographique qui permet à un utilisateur de prouver qu’il a dépassé un certain âge sans révéler aucune autre donnée personnelle. Pas de date de naissance, pas de scan de passeport, pas de visage stocké sur un serveur d’entreprise.
Sept États membres intègrent l’application à leurs portefeuilles d’identité numérique nationaux cette année :
- 🇩🇰 Danemark — hôte de l’annonce du 12 mai, défend déjà une interdiction pour les moins de 15 ans
- 🇫🇷 France — le Sénat a voté en avril 2026 l’interdiction pour les moins de 15 ans
- 🇬🇷 Grèce — interdiction pour les moins de 15 ans annoncée pour janvier 2027
- 🇮🇹 Italie — âge de consentement numérique fixé à 14 ans
- 🇪🇸 Espagne — Loi organique de protection des mineurs en phase parlementaire
- 🇨🇾 Chypre — interdiction pour les moins de 15 ans annoncée, application UE + Digital Citizen
- 🇮🇪 Irlande — Coimisiún na Meán applique des codes contraignants de sécurité en ligne
Le téléchargement public est prévu pour l’été 2026, suivi de l’intégration dans les portefeuilles nationaux d’ici la fin de l’année.
Comment le DFA va changer les règles
Le Digital Fairness Act est encore à l’état de projet, mais la Commission a clarifié son périmètre. La proposition — attendue entre octobre et décembre 2026 — couvrira :
- Le design addictif dans les produits numériques destinés aux consommateurs
- Les dark patterns qui poussent les utilisateurs vers des choix non désirés
- Les prix personnalisés fondés sur le suivi et le profilage
- Le marketing d’influence ciblant les enfants
- Les monnaies de jeu aux mécaniques proches du jeu d’argent
- Le déploiement de l’IA dans les réseaux sociaux
Contrairement au DSA, qui se concentre sur les plus grandes « Very Large Online Platforms », le DFA aura probablement une portée plus large — couvrant divers marchés de consommation — et interagira avec le droit existant de la consommation. Pour les familles, l’effet pratique est que la définition juridique d’un service numérique « déloyal » s’élargira jusqu’à inclure les choix de design qui maintiennent les enfants collés à leur écran.
Ce que les familles peuvent faire dès maintenant
Le DFA n’est encore qu’une proposition. L’application de vérification d’âge est en cours de déploiement. Les procédures TikTok s’étaleront sur des mois ou des années. Rien de tout cela n’aide un enfant qui est sur l’application ce soir.
Cinq mesures concrètes qui fonctionnent dès aujourd’hui :
Désactiver les notifications push pour toutes les applications de réseaux sociaux sur le téléphone de l’enfant. C’est le changement isolé qui a le plus d’effet sur le réflexe compulsif de vérification. Une grande partie des mécanismes de design addictif signalés par l’UE repose sur le fait que les notifications font le travail de rappel.
Utiliser les contrôles de temps d’écran au niveau de l’appareil (iOS Temps d’écran, Google Family Link) pour fixer des limites quotidiennes strictes. Ces outils ne sont pas parfaits — la Commission a jugé la version interne de TikTok « facile à désactiver » — mais une limite système définie par un parent est plus difficile à contourner qu’un rappel intégré à l’application.
Ajouter une couche de filtrage portable. Les contrôles d’appareil couvrent un appareil, les contrôles de routeur couvrent un réseau. Un VPN familial avec filtrage DNS bloque les catégories de réseaux sociaux sur l’appareil de l’enfant, où qu’il se connecte — Wi-Fi domestique, données mobiles, réseau scolaire, vacances.
Avoir la conversation. Les constats de l’UE ne sont pas secrets. Expliquer à un adolescent de treize ans que la Commission accuse formellement TikTok d’avoir conçu son application pour lui faire perdre la notion du temps est une conversation plus utile qu’un « passe moins de temps sur ton téléphone » générique.
Surveiller le signal du sommeil. La Commission a explicitement cité l’usage nocturne par les mineurs comme indicateur de comportement compulsif que TikTok avait ignoré. Si le téléphone d’un enfant est actif entre minuit et 6 h, c’est l’un des signaux d’alerte les plus clairs.
La suite
Le Digital Fairness Act ne deviendra pas loi en 2026 — les propositions de cette ampleur prennent dix-huit mois ou plus pour franchir le Parlement et le Conseil. Mais la direction est claire. Le DSA donne déjà à la Commission les outils pour infliger aux plateformes des amendes de plusieurs milliards d’euros au titre du design addictif. Le DFA étendra ces outils à l’IA, aux dark patterns et à un éventail plus large de services numériques. L’application de vérification d’âge rendra les règles d’âge minimum applicables pour la première fois.
Pour les familles, la conclusion est que l’Europe traite enfin la conception des réseaux sociaux — pas seulement les contenus qui s’y trouvent — comme le véritable problème. L’ère du « nous fournissons simplement une plateforme neutre » touche à sa fin. L’ère où les conceptions seront jugées sur leur effet sur les mineurs commence.
Lectures associées : Comment les géants de la tech ont fait de l’addiction un modèle économique, l’application européenne de vérification d’âge et ce que les parents peuvent faire aujourd’hui, et TikTok est-il sûr pour les enfants ?.
Qu’est-ce que le Digital Fairness Act?
Pourquoi l’UE cible-t-elle particulièrement TikTok?
Que reproche-t-on à Meta?
Quand l’application UE de vérification d’âge sera-t-elle disponible?
Que peuvent faire les parents avant l’entrée en vigueur des nouvelles règles?
Cet article reflète la situation réglementaire de l’UE au 13 mai 2026. Le Digital Fairness Act est une proposition en cours d’élaboration ; le Digital Services Act est en vigueur et activement appliqué. Pour un panorama plus large des lois nationales, voir notre aperçu mondial de la législation 2026 sur la protection de l’enfance.