Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

L’IA « moins régulée que les sandwichs », la tech fonce vers la superintelligence, selon une étude

Le rapport Winter 2025 de l’AI Safety Index, publié par l’organisation à but non lucratif Future of Life Institute (FLI), a évalué huit grands acteurs de l’IA.
Le rapport « AI Safety Index, édition hiver 2025 », publié par l'organisation à but non lucratif Future of Life Institute (FLI), a évalué huit grandes entreprises d'IA. Tous droits réservés  Canva
Tous droits réservés Canva
Par Pascale Davies
Publié le
Partager Discussion
Partager Close Button

Huit géants de l’IA, dont OpenAI, Meta, Anthropic et DeepSeek, n’ont pas de plans crédibles pour prévenir des risques catastrophiques, selon une étude.

Les plus grandes entreprises d’intelligence artificielle (IA) au monde ne respectent pas leurs propres engagements en matière de sécurité, selon une nouvelle évaluation qui avertit que ces manquements s’accompagnent de risques « catastrophiques ».

Le rapport paraît alors que les entreprises d’IA font face à des procès et à des accusations selon lesquelles leurs chatbots provoqueraient des dommages psychologiques, notamment en agissant comme un « coach de suicide », ainsi qu’à des signalements de cyberattaques assistées par l’IA.

Le rapport Winter 2025 de l’AI Safety Index, publié par l’organisation à but non lucratif Future of Life Institute (FLI), a évalué huit grandes entreprises d’IA, dont les sociétés américaines Anthropic, OpenAI, Google DeepMind, xAI et Meta, ainsi que les entreprises chinoises DeepSeek, Alibaba Cloud et Z.ai.

Il a constaté une absence de stratégies crédibles pour prévenir un usage catastrophique ou une perte de contrôle des outils d’IA, alors que les entreprises se lancent dans la course vers l’intelligence artificielle générale (AGI) et la superintelligence, une forme d’IA qui dépasse l’intellect humain.

Des analystes indépendants ayant étudié le rapport ont constaté qu’aucune entreprise n’avait produit un plan testable pour maintenir le contrôle humain sur des systèmes d’IA très performants.

Stuart Russell, professeur d’informatique à l’Université de Californie, Berkeley, a déclaré que les entreprises d’IA affirment pouvoir bâtir une IA surhumaine, mais qu’aucune n’a montré comment empêcher la perte de contrôle humain sur de tels systèmes.

« Je cherche la preuve qu’ils peuvent ramener le risque annuel de perte de contrôle à un sur cent millions, conforme aux exigences des réacteurs nucléaires », a écrit Russell. « À la place, ils admettent que le risque pourrait être d’un sur dix, d’un sur cinq, voire d’un sur trois, et ils ne peuvent ni justifier ni améliorer ces chiffres. »

Comment les entreprises ont-elles été classées ?

L’étude a évalué les entreprises selon six domaines critiques : évaluation des risques, préjudices actuels, cadres de sécurité, sécurité existentielle, gouvernance et responsabilité, et partage d’informations.

Si des progrès ont été constatés dans certaines catégories, le panel indépendant d’experts a jugé que la mise en œuvre reste inégale et manque souvent de la profondeur exigée par les standards mondiaux émergents.

Anthropic, OpenAI et Google DeepMind ont été salués pour une transparence relativement solide, des cadres publics de sécurité et des investissements continus dans la recherche en sécurité technique. Mais ils présentent encore des faiblesses.

Anthropic a été critiqué pour avoir mis fin à des essais d’amélioration humaine et pour avoir basculé, par défaut, vers un entraînement fondé sur les interactions des utilisateurs. Selon des experts, cette décision affaiblit les protections de la vie privée.

OpenAI a été pointé du doigt pour des seuils de sécurité ambigus, un lobbying contre des législations étatiques sur la sécurité de l’IA et un contrôle indépendant insuffisant.

Google DeepMind a amélioré son cadre de sécurité, selon le rapport, mais s’appuie toujours sur des évaluateurs externes rémunérés par l’entreprise, ce qui compromet leur indépendance.

« Les trois entreprises de tête ont souffert de préjudices actuels liés à des scandales récents (dommages psychologiques, suicides d’enfants, vaste attaque de piratage chez Anthropic) et toutes trois ont une marge de progression », a déclaré à Euronews Next Max Tegmark, président du FLI et professeur au Massachusetts Institute of Technology (MIT).

Selon le rapport, les cinq autres entreprises ont montré des avancées inégales mais notables. Il a toutefois averti qu’il restait des marges d’amélioration.

Par exemple, xAI a publié son premier cadre de sécurité structuré, bien que les évaluateurs aient averti qu’il était étroit et ne comportait pas de déclencheurs d’atténuation clairs.

Z.ai a été la seule entreprise à autoriser la publication non censurée de ses évaluations externes de sécurité, mais il lui a été recommandé de rendre public l’intégralité de son cadre de sécurité et de sa gouvernance, avec des zones de risque, des mitigations et des processus de décision clairement définis.

 Huit des principales entreprises d’IA, dont OpenAI, Meta, Anthropic et DeepSeek, n’ont pas de plans crédibles pour prévenir les risques catastrophiques liés à l’IA, révèle une nouvelle étude.
Huit des principales entreprises d’IA, dont OpenAI, Meta, Anthropic et DeepSeek, n’ont pas de plans crédibles pour prévenir les risques catastrophiques liés à l’IA, révèle une nouvelle étude. Future of Life Institute

Meta a introduit un nouveau cadre de sécurité pour les modèles de pointe, avec des seuils fondés sur les résultats, mais les évaluateurs estiment qu’elle devrait clarifier les méthodologies et partager des processus d’évaluation internes et externes plus robustes.

DeepSeek a été salué pour la mobilisation interne de ses employés, mais manque encore de documentation de base sur la sécurité.

Alibaba Cloud a contribué à l’élaboration de normes nationales contraignantes sur les exigences de filigrane, mais pourrait progresser en renforçant la robustesse et la fiabilité de ses modèles, en améliorant leurs performances sur les benchmarks de véracité, d’équité et de sécurité.

Euronews Next a sollicité les entreprises pour réagir au rapport, mais n’avait pas reçu de réponses au moment de la publication.

« Moins réglementée que les sandwichs »

« J’espère que nous dépasserons l’idée d’entreprises qui misent sur leur réputation pour croître », a déclaré Tegmark.

« À la question posée aux entreprises sur leurs plans pour contrôler l’AGI, aucune n’avait de plan », a-t-il ajouté.

Dans le même temps, des entreprises technologiques comme Meta utilisent la superintelligence comme un terme à la mode pour promouvoir leurs derniers modèles d’IA. Cette année, Meta a baptisé sa division dédiée aux grands modèles de langage (LLM) Meta Superintelligence Labs.

Tegmark estime qu’il y a un grand changement dans les discussions autour de l’AGI et de la superintelligence. Alors que les technologues l’envisageaient naguère comme une possibilité réelle d’ici les 100 prochaines années, ils parlent désormais de quelques années seulement.

« L’IA est aussi moins réglementée que les sandwichs [aux États-Unis], et le lobbying contre des normes de sécurité contraignantes au sein des pouvoirs publics se poursuit », a-t-il dit.

Mais Tegmark note qu’il existe, en parallèle, un contrecoup sans précédent face à l’absence de contrôle de l’AGI et de la superintelligence.

En octobre, des milliers de personnalités publiques, dont des dirigeants de l’IA et de la technologie, ont appelé les entreprises d’IA à ralentir leur quête de superintelligence.

La pétition, organisée par le FLI, a recueilli des signatures venant de tout l’échiquier politique, notamment Steve Bannon (ancien stratège en chef du président américain Donald Trump), Susan Rice (ancienne conseillère à la sécurité nationale sous l’administration Obama), des responsables religieux et de nombreux autres anciens responsables politiques, ainsi que des informaticiens de premier plan.

« Qu’ont en commun ces personnes ? Elles se sont accordées sur une déclaration. Je trouve extrêmement significatif que la base MAGA la plus fidèle de Trump, des responsables religieux, des voix de la gauche et des mouvements syndicaux s’accordent sur quelque chose », a déclaré Tegmark.

« La superintelligence rendrait chaque travailleur incapable de gagner sa vie, tous les emplois étant occupés par des robots. Les gens dépendraient d’aides de l’État : à droite, ce serait perçu comme de l’assistanat, et à gauche, comme un gouvernement à la “1984” », a-t-il dit. « Je pense que ce qui se passe, c’est que les gens arrivent à un point de rupture. »

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Mistral, champion européen de l’IA, dévoile de nouveaux modèles de pointe plus petits : l’essentiel

Champignon découvert à Tchernobyl pourrait protéger les astronautes de la radiation dans l'espace

Le « parrain de l’IA » Yann LeCun confirme son départ de Meta pour lancer une start-up d’IA