Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Margrethe Vestager soutient un nouvel institut de sécurité de l’IA pour les enfants

DOSSIER - La vice-présidente exécutive de la Commission européenne, Margrethe Vestager, s’adresse à la presse
PHOTO D'ARCHIVES - La vice-présidente exécutive de la Commission européenne, Margrethe Vestager, s'adresse aux médias Tous droits réservés  File- AP Photo/Michael Sohn, pool
Tous droits réservés File- AP Photo/Michael Sohn, pool
Par Una Hajdari
Publié le
Partager Discussion
Partager Close Button

Une ONG américaine s’inspire des normes de sécurité automobile pour protéger les enfants de l’IA et veut financer l’effort avec l’argent des géants de la tech.

Un nouvel institut indépendant, dédié à rendre l’intelligence artificielle plus sûre pour les enfants, sera présenté officiellement mardi au Parlement danois, avec l’ancienne vice‑présidente exécutive de la Commission européenne Margrethe Vestager parmi les coorganisateurs de l’événement.

PUBLICITÉ
PUBLICITÉ

L’approche de l’institut, expliquée dans un communiqué avant le lancement, est « calquée sur les évaluations indépendantes de crash‑tests » pour les voitures.

L’idée, en apparence, est que, tout comme les consommateurs peuvent vérifier la sécurité d’un véhicule avant de l’acheter, les parents devraient pouvoir faire de même pour les systèmes d’IA utilisés par leurs enfants.

À quoi ressemble exactement un crash‑test pour un chatbot, l’institut ne le précise toutefois pas encore.

La question de savoir si des produits d’IA qui se mettent à jour en continu, se comportent différemment selon les contextes et se prêtent mal à des conditions standardisées comme une piste d’essai peuvent réellement être « crash‑testés » de manière pertinente pour les enfants reste entièrement à éclaircir.

Vestager, qui a passé une décennie à la Commission européenne à superviser la politique de concurrence et a dirigé l’agenda « Une Europe adaptée à l’ère numérique », est l’une des figures les plus en vue à apporter son poids politique à cette initiative.

Remettre le génie dans la bouteille ?

Des chercheurs, des militants pour la protection de l’enfance et certains responsables politiques tirent déjà la sonnette d’alarme depuis des années.

Jusqu’à présent, les chatbots d’IA se situaient dans une zone grise réglementaire au regard du règlement européen sur les services numériques (Digital Services Act) et de l’Online Safety Act britannique. En juillet 2025, la Commission européenne a publié des lignes directrices sur la protection des mineurs en ligne, mais elles sont consultatives et non contraignantes.

« L’IA est en train de remodeler l’enfance et l’adolescence, et pourtant nous prenons des décisions cruciales pour l’avenir des enfants sans disposer des preuves nécessaires pour garantir que cela est sûr et dans leur intérêt », a déclaré James P. Steyer, fondateur et directeur général de Common Sense Media, dans le communiqué.

« Le besoin de normes transparentes en matière de sécurité de l’IA et de tests indépendants n’a jamais été aussi urgent. »

Dans une évaluation des risques publiée en novembre 2025, réalisée avec le Brainstorm Lab de Stanford Medicine, Common Sense Media a constaté que les principaux chatbots d’IA, parmi lesquels ChatGPT, Claude, Gemini et Meta AI, ne parvenaient pas de manière systématique à reconnaître et à traiter correctement les troubles de santé mentale chez les jeunes, malgré des progrès récents dans la gestion des contenus explicites sur le suicide et l’automutilation.

Les chercheurs ont relevé ce qu’ils ont appelé des « indices manqués », c’est‑à‑dire des signes évidents de détresse psychologique que les chatbots n’ont pas su détecter, les modèles privilégiant des explications liées à la santé physique plutôt que de reconnaître les symptômes de troubles mentaux.

Une autre évaluation de ChatGPT a montré que les alertes concernant des contenus liés au suicide ou à l’automutilation arrivaient fréquemment plus de 24 heures après la conversation en question, ou trop tard, note le rapport, en cas de crise réelle.

L’argent même des géants de la tech

L’institut fonctionnera sous l’égide de Common Sense Media et est financé par un mélange de donateurs philanthropiques et d’acteurs du secteur, dont Anthropic, la fondation OpenAI et Pinterest, les mêmes entreprises dont il entend pourtant évaluer et juger les produits.

Il affirme conserver une totale indépendance éditoriale sur ses conclusions, et sa politique en matière de conflits d’intérêts interdit aux employés actuels ou aux personnes affiliées aux bailleurs de fonds de siéger à son conseil consultatif.

Le modèle prévoit aussi de remettre à l’industrie les outils que l’institut développe et met à l’essai, et celui‑ci compte créer des dispositifs d’évaluation en open source que les développeurs d’IA pourront utiliser pour tester leurs propres modèles.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Anthropic attribue les tentatives de chantage de Claude aux récits d’« IA maléfique »

Musk qualifiait jadis Anthropic de « maléfique », il alimente désormais l’essor de son IA « woke »

Les jeunes militants européens s'opposent aux interdictions généralisées des réseaux sociaux