En 2025, entre tendances, termes et contenus « brain rot », les réseaux sociaux ont fait face aux lois de restriction d’âge, à l’IA et à la méfiance accrue des utilisateurs.
Alors qu’une nouvelle année touche à sa fin, beaucoup d’entre nous se préparent à une déferlante de Reels Instagram introspectifs, de bilans filtrés et de bonnes résolutions pour réduire le doomscrolling.
Les réseaux sociaux restent une force dominante dans nos vies ; un moyen de mesurer nos réussites, de nous connecter aux autres et de suivre l’actualité et les tendances. Ils ont même remodelé notre langue, nombre des mots des dictionnaires pour 2025 étant issus des réseaux sociaux : rage bait, parasocial et AI slop, pour ne citer qu’eux.
Depuis l’essor de l’intelligence artificielle (IA), on observe cependant un changement majeur dans la façon dont les gens utilisent et perçoivent les réseaux sociaux. La multiplication de la désinformation a engendré de la défiance et un sentiment de désillusion, ce qui se reflète dans l’usage des plateformes.
Facebook demeure le plus populaire, selon la société de marketing pour moteurs de recherche Semrush, mais des applications communautaires comme Reddit et Discord continuent de croître, à mesure que les internautes recherchent des espaces en ligne plus pertinents, intimes et authentiques.
Dans le même temps, les régulateurs continuent de composer avec les tensions entre un Internet ouvert et la sécurité en ligne, donnant à 2025 des airs de tournant majeur pour la manière dont les entreprises de réseaux sociaux vont continuer à fonctionner.
Des lois de vérification de l’âge aux grandes controverses autour du chatbot IA Grok d’Elon Musk, voici un tour d’horizon des principaux sujets qui ont fait débat sur les réseaux sociaux cette année.
Interdictions des réseaux sociaux et protection des mineurs
Le 10 décembre, l’Australie a instauré une première mondiale : l’interdiction des réseaux sociaux pour les moins de 16 ans. Concrètement, les enfants ne peuvent plus accéder à des comptes sur des plateformes comme Instagram, Snapchat, TikTok, YouTube, X et Facebook, qui s’exposent à de lourdes amendes en cas de violation de la loi.
Mesure jugée extrême, elle reflète toutefois l’inquiétude croissante quant aux effets des réseaux sociaux sur la santé mentale des jeunes, l’Organisation mondiale de la santé (OMS) indiquant qu’un adolescent sur dix a subi des conséquences négatives liées à leur usage.
Depuis, le Danemark a annoncé son intention de suivre le mouvement, proposant de bloquer l’accès aux réseaux sociaux pour les moins de 15 ans, sauf si les parents remplissent une évaluation spécifique. D’autres pays, dont l’Espagne, la Grèce et la France, plaident également pour des mesures de protection.
Parallèlement, des lois strictes de vérification de l’âge ont été mises en œuvre au Royaume-Uni en juillet dans le cadre de l’Online Safety Act, empêchant les mineurs de consulter des contenus pour adultes ou tout ce qui pourrait encourager des comportements dangereux.
L’efficacité de ces nouvelles législations reste à mesurer, certains experts demeurant sceptiques, mais l’on entend déjà parler de stratagèmes inventifs par lesquels des adolescents tentent de contourner les règles. Beaucoup se tournent vers des applications de messagerie comme WhatsApp, ou achètent même des masques en résille à l’apparence adulte pour tromper la reconnaissance faciale.
AI slop, deepfakes et propagation de la désinformation
En 2025, l’AI slop a pris le dessus. Ce terme désigne les images et vidéos factices créées par des outils d’IA générative tels que Sora d’OpenAI ; il a inondé nos fils avec des absurdités bâclées comme des chiots se changeant en roulés à la cannelle, des chats arrêtés par la police, ou les mèmes, étrangement populaires, dits « Italian brain rot ».
En apparence inoffensif, ce phénomène rend pourtant plus difficile l’accès à des contenus authentiques créés par de vraies personnes. Dans certains cas, il a aussi favorisé la prolifération d’arnaques et de désinformation, y compris du côté des responsables politiques. Le président américain Donald Trump continue d’être l’un des pires contrevenants à cet égard, ayant notamment partagé des images générées par IA montrant la chanteuse Taylor Swift lui apporter son soutien.
L’IA a également servi à intensifier la production de deepfakes, des vidéos qui imitent le visage, le corps ou la voix d’une personne pour diffuser de fausses informations. L’une d’elles montrait, de façon fabriquée, une femme dans une émission de télévision avouant une fraude aux aides sociales ; des médias comme Fox News l’ont relayée par erreur.
Pour tenter d’y faire face, des plateformes comme Meta et TikTok ont commencé à apposer des mentions sur tout contenu généré par IA. Toutefois, l’ampleur de la production rend l’application complète de ces règles difficile, un rapport de juin du conseil de surveillance interne de Meta ayant jugé ce marquage « incohérent ».
Le chatbot d’Elon Musk et les discours de haine
Nombre des grandes plateformes sociales ont intégré des assistants IA à leurs services, offrant une aide automatisée à la création de contenus, aux recherches et aux demandes de service client. C’est toutefois le chatbot Grok d’Elon Musk qui a suscité le plus de controverses cette année.
Conçu par xAI, l’entreprise du milliardaire de la tech, Grok a fait la une en juillet pour avoir loué Adolf Hitler et accusé un compte automatisé portant un nom juif de se réjouir de la mort d’enfants blancs lors des inondations au centre du Texas.
Musk avait alors répondu que l’outil d’IA était « trop enclin à faire plaisir et à se laisser manipuler », un problème « en cours de résolution ». Grok a pourtant continué à publier des réponses inquiétantes, notamment des théories du complot antisémites et des conseils pour traquer des personnes.
Des règles plus strictes et une responsabilité accrue des algorithmes
La régulation des espaces en ligne s’est durcie cette année, avec l’entrée en vigueur de l’Online Safety Act au Royaume-Uni, qui exige davantage de transparence et de responsabilité de la part des entreprises de réseaux sociaux.
Le Digital Services Act (DSA) de l’UE a également infligé sa toute première amende, de 120 millions d’euros, à X, le réseau d’Elon Musk. La politique publicitaire de la plateforme et ses badges bleus (autrefois utilisés pour signaler un compte vérifié, désormais vendus à n’importe qui) ont été jugés non conformes au droit européen en raison d’un manque de clarté.
TikTok a également écopé en mai d’une amende de 530 millions d’euros de la part de la Commission irlandaise de protection des données (DPC), pour ne pas avoir protégé les données personnelles d’utilisateurs européens lors d’un transfert vers la Chine.
L’ampleur des données (et du pouvoir) dont disposent les plateformes sociales, conjuguée aux inquiétudes évoquées quant à leurs effets potentiellement nuisibles, laisse présager un contrôle législatif encore plus intense en 2026.