Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

« L'humanité doit se réveiller face aux menaces de l'IA », avertit le PDG d'Anthropic

PHOTO D’ARCHIVES - Dario Amodei, PDG et cofondateur d’Anthropic, participe à la réunion annuelle du Forum économique mondial à Davos, en Suisse, le 23 janvier 2025.
Photo d’archives - Dario Amodei, directeur général et cofondateur d’Anthropic, assiste à la réunion annuelle du Forum économique mondial à Davos (Suisse), le 23 janvier 2025 Tous droits réservés  AP Photo/Markus Schreiber, File
Tous droits réservés AP Photo/Markus Schreiber, File
Par Anna Desmarais
Publié le
Partager Discussion
Partager Close Button

Dario Amodei, PDG d’Anthropic, estime qu’il faut réguler l’IA, sous peine de voir émerger des régimes autocratiques usant de l’IA pour réprimer les populations.

Le monde entre dans une phase du développement de l’intelligence artificielle (IA) qui met à l’épreuve « qui nous sommes en tant qu’espèce », avertit le PDG d’Anthropic dans un essai d’envergure.

Dario Amodei estime que l’humanité entre dans une « adolescence technologique », où l’IA progresse plus vite que les systèmes juridiques, les cadres réglementaires et la société ne peuvent suivre.

Selon lui, d’ici deux ans, l’IA pourrait devenir « plus intelligente qu’un lauréat du prix Nobel » dans la plupart des domaines clés, comme la biologie, la programmation, les mathématiques, l’ingénierie et l’écriture.

Lorsque ces systèmes d’IA coopèrent, Amodei les compare à « un pays de génies dans un centre de données », capables d’exécuter des tâches complexes au moins dix fois plus vite qu’un humain dans des domaines comme la conception logicielle, les opérations cyber et même la création de relations.

Cette combinaison d’une intelligence surhumaine, d’autonomie et de la difficulté à contrôler la technologie constitue « à la fois un scénario plausible et une voie vers un péril existentiel », écrit-il.

« L’humanité doit se réveiller, et cet essai est une tentative (peut-être vaine, mais qui vaut la peine d’être tentée) de provoquer un sursaut », a-t-il déclaré.

L’essai d’Amodei intervient après que son entreprise a publié la semaine dernière une « constitution » de 80 pages pour son chatbot Claude, qui détaille comment la société entend amener son IA à se comporter de manière sûre et éthique.

Amodei n’est pas le seul à alerter sur les dangers potentiels de l’IA. Un rapport 2025soutenu par 30 pays a indiqué que des systèmes d’IA avancés pourraient engendrer de nouveaux risques extrêmes, comme des pertes d’emplois massives, la facilitation du terrorisme ou la perte de contrôle de la technologie.

D’autres dirigeants du secteur, dont Sam Altman d’OpenAI et Steve Wozniak, cofondateur d’Apple, ont également mis en garde contre les risques de l’IA.

L’IA est un « défi civilisationnel »

Sans aller jusqu’à dire que la catastrophe est inévitable, Amodei avertit que l’IA constitue un sérieux « défi civilisationnel ».

« L’IA est si puissante, un trophée si séduisant, qu’il est très difficile pour la civilisation humaine de lui imposer la moindre contrainte », écrit-il.

Des systèmes d’IA puissants pourraient servir à conseiller des gouvernements, des organisations ou des particuliers sur la géopolitique, la diplomatie ou la planification militaire, ajoute Amodei.

Le plus grand danger est que des autocrates utilisent ces conseils générés par l’IA pour « voler de façon permanente » la liberté des citoyens sous leur coupe et « imposer un État totalitaire duquel il serait impossible de s’échapper », écrit-il.

Une IA puissante, scrutant des milliards de conversations de millions de personnes, pourrait mesurer l’opinion publique, détecter l’apparition de foyers de dissidence et les étouffer avant qu’ils ne grandissent.
Dario Amodei
PDG, Anthropic

L’usage à grande échelle de l’IA pour la surveillance, ajoute-t-il, devrait être considéré comme un crime contre l’humanité.

Amodei estime qu’il existe un risque de voir le monde se fragmenter en sphères autocratiques, chacune utilisant l’IA pour surveiller et réprimer sa population.

« Une IA puissante, scrutant des milliards de conversations de millions de personnes, pourrait mesurer l’opinion publique, détecter l’apparition de foyers de dissidence et les étouffer avant qu’ils ne grandissent », lit-on dans l’essai.

Amodei désigne le gouvernement chinois comme la principale source d’inquiétude, compte tenu de sa maîtrise de l’IA, de son mode de gouvernance autocratique et de son infrastructure de surveillance high-tech déjà en place.

Amodei a également indiqué que les démocraties compétitives en IA, les pays non démocratiques dotés de grands centres de données, ainsi que les entreprises d’IA elles-mêmes, sont des acteurs potentiels susceptibles de détourner la technologie.

Les puces, « le plus grand goulot d’étranglement »

Contrôler la vente de puces informatiques avancées utilisées pour entraîner des modèles d’IA est la manière la plus efficace de riposter, écrit-il.

Les démocraties ne devraient pas vendre ces technologies à des États autoritaires, en particulier à la Chine, largement considérée comme le principal concurrent des États-Unis dans la course à l’IA, ajoute Amodei.

« Les puces et les outils de fabrication de puces sont le plus grand goulot d’étranglement pour une IA puissante, et les bloquer est une mesure simple mais extrêmement efficace, peut-être l’action la plus importante que nous puissions entreprendre », a-t-il déclaré.

Au-delà des contrôles à l’exportation, Amodei a plaidé pour une coordination à l’échelle du secteur et une supervision sociétale. Il a appelé à des lois de transparence obligeant les entreprises d’IA à révéler la manière dont elles orientent le comportement de leurs modèles.

Il cite à titre d’exemple la loi SB-53 de Californie, dite Transparency in Frontier Artificial Intelligence Act (TFAIA).

La loi oblige les entreprises d’IA à publier sur leur site web des cadres décrivant la manière dont elles intègrent les meilleures pratiques et normes nationales et internationales dans leurs modèles d’IA, selon le gouverneur de l’État de Californie, Gavin Newsom.

Mais Amodei se montrait aussi optimiste quant à l’avenir de l’IA.

« Je pense que si nous agissons de façon résolue et prudente, les risques peuvent être surmontés (je dirais même que nos chances sont bonnes). Et il y a un monde bien meilleur de l’autre côté. Mais nous devons comprendre qu’il s’agit d’un sérieux défi civilisationnel », a-t-il déclaré.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Une start-up spatiale américaine ouvre les réservations pour un hôtel gonflable sur la Lune

TikTok enquête sur le blocage de vidéos 'Epstein' et anti-Trump, sur fond d'accusations de censure

Quel matériel militaire à bord de l’USS Abraham Lincoln ? Le porte-avions nucléaire au Moyen-Orient