Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Réseaux sociaux : comment l'Union européenne veut mieux protéger les mineurs ?

L'informatique en maternelle
L'informatique en maternelle Tous droits réservés  AP Photo/Elaine Thompson
Tous droits réservés AP Photo/Elaine Thompson
Par Leticia Batista Cabanas & Elisabeth Heinz
Publié le Mis à jour
Partager Discussion
Partager Close Button

La Commission européenne a présenté son plan pour protéger les mineurs en ligne, ainsi qu'un nouveau système de vérification de l'âge. Les États membres légifèrent pour interdire les réseaux sociaux aux enfants, tandis que le Parlement européen réclame un seuil fixé à 16 ans.

Ce sont des résultats inquiétants que révèle l’Eurobaromètre 2025 "State of the Digital Decade" : 93 % des citoyens de l’UE se disent inquiets pour la santé mentale des enfants et 92 % citent le cyberharcèlement comme la principale menace en ligne.

PUBLICITÉ
PUBLICITÉ

Conséquence : Bruxelles a durci sa position sur la protection des mineurs en ligne.

La semaine dernière, la présidente de la Commission européenne, Ursula von der Leyen, a annoncé qu’une nouvelle application de vérification de l’âge "est techniquement prête et sera bientôt mise à la disposition des citoyens". Ce dispositif imposera aux citoyens de prouver leur âge pour accéder aux plateformes en ligne, sans pour autant partager de données personnelles.

Mais certains États membres de l’UE prennent déjà des mesures décisives. La France a adopté une interdiction visant les moins de 15 ans. L’Espagne, l’Autriche, la Grèce, l’Irlande, le Danemark et les Pays‑Bas se préparent à introduire prochainement des règles similaires.

Christel Schaldemose, eurodéputée du groupe de l’Alliance progressiste des socialistes et démocrates, dit percevoir des hésitations dans l’action de la Commission. "Je ne sais pas s’ils retardent [les mesures] volontairement, mais je trouve qu’ils sont trop lents. À ce rythme, nous nous retrouvons avec un marché intérieur fragmenté, car de nombreux pays ont déjà proposé un âge limite", estime la rapporteuse du texte.

Les enfants face aux plateformes en ligne

Les réseaux sociaux sont devenus un environnement omniprésent et risqué pour les enfants, en grande partie à cause de leurs mécanismes addictifs, de la connexion permanente, d’une personnalisation poussée et des outils d’IA.

En 2022, 96 % des jeunes de 15 ans étaient actifs sur les réseaux sociaux, et 37 % y passaient plus de trois heures par jour. Les adolescentes ont tendance à utiliser davantage les réseaux sociaux : 42 % contre 32 % pour les garçons, selon une étude publiée en 2025 par le Centre commun de recherche (JRC).

Chez les 9‑15 ans, l’usage quotidien atteint fréquemment les trois heures et 78 % des adolescents de 13 à 17 ans consultent leurs appareils au moins une fois par heure. Au total, un quart reconnaît avoir des usages problématiques d’Internet, selon le rapport non-législatif du Parlement européen de novembre 2025.

Près de 99 % des 16‑17 ans avaient, en 2025, une activité active (création de profils, publication de messages, utilisation de Facebook, X...) sur les réseaux sociaux, d’après l’Eurobaromètre.

Utilisation d’Internet : participation aux réseaux sociaux (création de profil, publication de messages, usage de Facebook, X, etc.)

Pour Christel Schaldemose, le groupe d’experts de la Commission sur la sécurité des enfants en ligne constitue un premier pas positif. Leur expertise approfondie permettra, selon elle, d’orienter efficacement l’action de la Commission.

Le JRC avertit qu’un usage non contrôlé des réseaux sociaux nuit à la santé mentale des enfants, en augmentant les niveaux de dépression et d’anxiété. Des contenus nuisibles, tels que des images violentes, sexualisées ou faisant l’apologie des troubles alimentaires, peuvent affecter le développement cérébral des enfants et leurs comportements sociaux.

60 % des jeunes filles présentent des symptômes dépressifs, contre 35 % des garçons, et 65 % souffrent d’anxiété, contre 41 % des garçons, révèle l’étude du JRC.

Comme nombre de plateformes en ligne s’adressent d’abord aux adultes, leurs modèles économiques fondés sur la publicité ont de lourdes répercussions sur les plus jeunes et favorisent les comportements de dépendance.

36 % des adolescents en Europe, en Asie centrale et au Canada restent en contact permanent via les réseaux sociaux. 11 % présentent un usage problématique de ces réseaux, les filles (13 %) étant plus touchées que les garçons (9 %), selon un rapport de l’Organisation mondiale de la santé (OMS) publié en 2024.

Les interdictions, une compétence nationale

Le 8 avril 2026, le Premier ministre grec, Kyriakos Mitsotakis, a annoncé une interdiction des réseaux sociaux pour les moins de 15 ans. La loi, qui doit entrer en vigueur en janvier 2027 et reste soumise à l’approbation du Parlement, interdira aux mineurs de détenir un compte sur les réseaux sociaux et obligera les plateformes à appliquer une vérification stricte de l’âge sous peine de sanctions financières.

Cette décision a été motivée par des données montrant que 75 % des élèves de l’école primaire en Grèce étaient actifs sur les réseaux sociaux, tandis qu’environ 48 % des adolescents déclaraient ressentir des effets négatifs sur leur santé mentale.

L’opinion publique a également un avis tranché sur la question : 80 % des personnes interrogées soutiennent une interdiction après un jugement rendu en mars 2026 aux États-Unis, qui a reconnu la responsabilité des grandes plateformes technologiques dans la conception addictive de leurs applications. S’appuyant sur le succès de l’interdiction des smartphones dans les écoles en 2024, le gouvernement grec a évoqué des élèves "éteints" et en manque de sommeil pour justifier cette nouvelle restriction.

La Grèce rejoint ainsi d’autres pays de l’UE : la France a adopté en janvier 2026 un projet de loi interdisant les réseaux sociaux aux moins de 15 ans, invoquant une "urgence sanitaire" et la nécessité de protéger les mineurs du cyberharcèlement et des atteintes psychologiques. En février 2026, l’Espagne a annoncé son intention d’interdire les réseaux sociaux aux moins de 16 ans pour "dompter le Far West numérique", tandis que l’Autriche, le Danemark et la Slovénie préparent des interdictions pour, respectivement, les moins de 14, 15 et 15 ans.

État des interdictions de réseaux sociaux dans les pays de l’UE

L’Italie et l’Irlande envisagent, de leur côté, des interdictions pour les moins de 15 ans et les moins de 16 ans, tandis que l’Allemagne et d’autres États débattent de limites d’âge ou de "versions jeunesse" des plateformes. Leur motivation : la flambée des troubles de la santé mentale et la volonté de rendre les géants du numérique responsables de la conception addictive de leurs services, dans le sillage de l’interdiction pour les moins de 16 ans adoptée en Australie en 2025, une première mondiale.

La simple déclaration de la date de naissance par l’utilisateur ne suffit donc pas. La mise en œuvre passe déjà par des dispositifs comme les portefeuilles numériques ou des jetons d’identité, mais la toute nouvelle application de vérification de l’âge de la Commission européenne "permettra aux utilisateurs de prouver leur âge lorsqu’ils accèdent à des plateformes en ligne, comme les commerces demandent une preuve d’âge aux personnes qui achètent [de l’alcool]", selon Ursula von der Leyen.

Les plateformes portent la responsabilité principale, et les autorités nationales veillent au respect des règles via un contrôle renforcé et des amendes. Si des textes européens comme le règlement sur les services numériques (DSA) et le règlement général sur la protection des données (RGPD) posent un socle de protection pour les mineurs, les interdictions nationales vont plus loin en fixant des limites d’âge strictes et en renforçant la responsabilité des entreprises technologiques.

Des responsables politiques opposés à ces mesures, comme des membres du parti espagnol Vox ou certains élus italiens, les jugent toutefois excessives, estimant que l’éducation, le contrôle parental et l’éducation au numérique seraient plus efficaces que des interdictions pures et simples.

Cette position est également défendue par les associations de consommateurs. Olivia Brown, chargée de mission au sein du groupe international Euroconsumers, considère les interdictions générales comme un raccourci politique qui dédouane les plateformes de leurs responsabilités.

"Interdire les réseaux sociaux ne rend pas Internet plus sûr. Cela ne fait que déplacer le problème hors de notre champ de vision", assure-t-elle, expliquant que "les mineurs ont besoin que la sécurité soit intégrée par conception dans les plateformes, de vrais outils de contrôle et d’algorithmes qu’ils puissent eux‑mêmes façonner, pas de portes qu’on claque simplement avant de les rouvrir en grand le jour de leurs 18 ans".

Vers une régulation à l’échelle de l’UE

Le sujet est politiquement sensible et une interdiction à l’échelle européenne risquerait de renforcer les polarisations. La Commission préfère donc d’abord lancer l’application de vérification de l’âge, afin de fournir aux États membres un outil pour appliquer leurs interdictions nationales.

Conçue pour la première fois en 2025, l’application se présente comme un cadre technique qui peut être intégré dans les portefeuilles numériques nationaux ou dans des applications séparées pour vérifier l’âge des utilisateurs. Pour confirmer leur âge, les utilisateurs doivent télécharger une application, donner leur consentement à l’utilisation de leurs données, scanner un document d’identité (y compris sa puce) et effectuer une reconnaissance faciale. Ce processus pourrait devoir être répété régulièrement, et les plateformes pourraient exiger une vérification à chaque accès à un service soumis à une limite d’âge.

Cette application suscite des inquiétudes liées à sa complexité, à ses implications pour la vie privée, à la facilité avec laquelle elle pourrait être contournée (par exemple via des VPN) et à la crainte qu’elle ne déplace la responsabilité des plateformes vers les utilisateurs, contrairement à d’autres outils de régulation européens.

Préoccupations des citoyens de l’UE concernant les risques en ligne pour les enfants

C’est le cas du RGPD, adopté en 2016 et mis en œuvre entre 2018 et 2020, qui fixe des règles strictes sur les données des enfants. Il fixe à 16 ans l’âge par défaut du consentement numérique (avec la possibilité pour les États de le ramener à 13 ans) et impose l’autorisation parentale pour les utilisateurs plus jeunes.

La directive révisée sur les services de médias audiovisuels, entrée en vigueur à partir de 2020, a introduit des systèmes de classification par âge et des contrôles parentaux sur les plateformes de streaming, ainsi que des interdictions strictes concernant les contenus nocifs, comme les matières relevant de l’exploitation des enfants. Puis, en 2021, l’UE a lancé une stratégie plus large de protection des enfants en ligne, combinant financements, recherches et codes de conduite volontaires pour lutter contre des risques comme le cyber‑prédateur ou la désinformation.

Plus récemment, la Commission a proposé des mesures concrètes comme des comptes privés par défaut pour les mineurs et des limitations des fonctionnalités addictives telles que la lecture automatique et le défilement infini. Certaines dispositions de la loi sur l’IA, dont les interdictions sont entrées en vigueur en février 2025, proscrivent spécifiquement les systèmes qui utilisent des techniques subliminales ou exploitent les vulnérabilités des enfants pour influencer leur comportement. La future loi sur l’équité numérique (Digital Fairness Act), dont la proposition formelle est attendue pour fin 2026, doit encore renforcer les règles de conception des plateformes en interdisant les "dark patterns" et des fonctionnalités addictives comme le défilement infini.

Au cœur de cet ensemble se trouve le DSA, un règlement phare de refonte des plateformes en ligne. Proposé par la Commission en 2020, il a été approuvé par le Parlement européen et le Conseil en 2022 et est entré pleinement en vigueur en février 2024, après un déploiement progressif.

Le DSA impose aux plateformes de mieux protéger leurs utilisateurs, avec une attention particulière aux mineurs : paramètres par défaut plus sûrs, modération des contenus, restrictions de la publicité ciblée. Il crée aussi un nouveau système d’application des règles, avec des coordinateurs nationaux des services numériques et une supervision au niveau européen.

Depuis l’entrée en vigueur du DSA, les citoyens de l’UE bénéficient d’une plus grande transparence, de droits renforcés et de limites accrues aux pratiques nuisibles ou abusives. Les utilisateurs disposent désormais de voies plus claires pour signaler des contenus et contester des décisions de modération, tandis que les mineurs profitent d’une protection renforcée de leur vie privée et d’une exposition réduite à la publicité ciblée.

L’impact sur les plateformes numériques

Les restrictions d’âge sur les réseaux sociaux réduisent fortement la portée auprès des adolescents : les entreprises perdent un groupe clé qui dynamise l’activité en ligne, ce qui se traduit par une baisse des impressions publicitaires et des revenus liés au trafic.

Les plateformes en ligne dépendent largement des adolescents et des enfants pour leurs revenus publicitaires. Fixer des limites d’âge sur les réseaux sociaux peut faire baisser ces revenus en réduisant le nombre de jeunes utilisateurs et en rendant plus difficile le ciblage publicitaire.

Les coûts de conformité risquent d’augmenter, car les entreprises doivent renforcer leurs systèmes de vérification d’âge et d’obtention du consentement parental. Ces dispositifs sont coûteux et complexes, car ils nécessitent des technologies avancées de vérification d’identité et de protection des données.

Une interdiction des fonctionnalités de conception addictives et des algorithmes d’engagement sur les réseaux sociaux impose une refonte des produits, ce qui augmente les coûts d’ingénierie et retarde les lancements sur le marché européen. Un basculement vers des contenus plus sûrs peut aussi mettre les budgets sous pression.

Selon Christel Schaldemose, les grands groupes doivent développer "de nouvelles plateformes avec un modèle économique complètement différent, qui protège les enfants".

Les entreprises s’exposent également à des risques juridiques plus lourds en cas de violation des règles. Le Parlement a proposé de rendre les propriétaires de plateformes personnellement responsables en cas d’infractions graves et répétées aux dispositions de protection des mineurs.

"Ce sont elles qui mettent ces plateformes à disposition. Si nous nous mettons d’accord sur un âge limite, la responsabilité incombera clairement aux entreprises en cas de violations", a déclaré Christel Schaldemose à Euronews.

L’Europe doit accélérer

Pour l'eurodéputée, la Commission agit trop lentement. Elle a annoncé le groupe d’experts en septembre, mais celui‑ci n’a commencé à travailler qu’en mars.

Certains États membres seraient déjà opposés à l’application. "Plus la Commission mettra de temps à présenter une proposition, plus il est probable que nous nous retrouvions avec un marché fragmenté et des failles", estime‑t‑elle.

"Je suis devenue impatiente envers la Commission. Il semble que les États membres soient eux aussi un peu impatients, car ils poussent également", a déclaré Christel Schaldemose.

Les enjeux de confidentialité et de partage des données ne peuvent plus servir d’excuse. "Ces deux dernières années, nous avons développé des outils qui ne compromettent ni les données personnelles ni la sécurité", a‑t‑elle ajouté.

Le Parlement continuera de mettre la pression jusqu’à ce que la Commission trouve une solution raisonnable. "Nous devons agir au niveau européen, et le Parlement est clair sur ce point", a conclu Christel Schaldemose.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Comment l'UE protège-t-elle les mineurs en ligne ? Demandez au chatbot d'Euronews

Les enfants doivent-ils utiliser les médias sociaux ? L'Europe s'oriente vers des limites d'âge

Quels sont les pays européens qui interdisent les réseaux sociaux aux mineurs ?