OpenAI : ce qui a changé en près de dix ans de mission et ce que révèlent ses nouveaux « principes »
OpenAI se préoccupe moins de l’intelligence artificielle générale (AGI) qu’il y a presque dix ans et privilégie désormais un déploiement plus large de sa technologie, selon une nouvelle déclaration de mission de l’entreprise.
Dimanche, OpenAI a publié une mise à jour de son document « Our Principles », qui définit la manière dont l’entreprise entend gérer sa technologie à l’avenir.
Il existe des différences importantes entre cette nouvelle série de principes et les priorités affichées il y a près de dix ans, lorsque OpenAI n’était encore qu’un jeune organisme de recherche en intelligence artificielle (IA) à but non lucratif.
Moins d’accent sur l’intelligence artificielle générale
En 2018 (source en anglais), OpenAI mettait résolument l’accent sur la super-intelligence artificielle générale (AGI), l’idée que sa technologie dépasserait l’intelligence humaine, mais elle ne constitue plus aujourd’hui qu’un volet du déploiement plus large de l’IA par l’entreprise.
Les deux versions des principes de l’entreprise affirment que la mission d’OpenAI est de faire en sorte que cette technologie « profite à toute l’humanité », mais celle de 2018 mentionnait explicitement la nécessité de la développer de manière sûre et bénéfique.
« Notre devoir fiduciaire premier est envers l’humanité », peut-on y lire. « Nous prévoyons de devoir mobiliser des ressources substantielles pour remplir notre mission, mais nous agirons toujours avec diligence pour réduire au minimum les conflits d’intérêts entre nos employés et nos parties prenantes susceptibles de compromettre l’intérêt général. »
La version 2026 (source en anglais), en revanche, souligne qu’il faut continuer à construire des systèmes sûrs, mais insiste sur la nécessité pour la société de se confronter à « chaque nouveau niveau de capacités de l’IA, de le comprendre, de l’intégrer et de déterminer ensemble la meilleure voie à suivre ».
Pour Sam Altman, directeur général et cofondateur d’OpenAI, la voie à suivre en 2026 consiste à démocratiser l’IA à tous les niveaux en la rendant accessible à tous et en s’opposant à l’idée que cette technologie puisse « concentrer le pouvoir entre les mains de quelques-uns ».
Le document de principes 2026 indique également qu’OpenAI devrait travailler avec les gouvernements, les organismes internationaux et d’autres initiatives autour de l’AGI afin de « résoudre suffisamment les graves problèmes d’alignement, de sécurité ou de société avant d’aller plus loin » dans ses travaux.
Parmi les exemples cités figurent l’utilisation de ChatGPT pour contrer des modèles capables de créer de nouveaux agents pathogènes ou l’intégration de modèles cyber-résilients dans des infrastructures critiques.
Altman a donné quelques pistes expliquant la mise en retrait de l’AGI par OpenAI sur son blog personnel plus tôt ce mois-ci.
L’AGI a « quelque chose de l’anneau de pouvoir » qui « pousse les gens à faire des choses insensées », écrit Altman. Pour y faire face, il estime que la seule solution est de « s’orienter vers un partage large de la technologie avec le plus grand nombre, et faire en sorte que personne n’ait l’anneau ».
OpenAI ne se mettra plus en retrait pour laisser la place à une solution plus sûre
En 2018, OpenAI disait craindre que le développement de l’AGI ne se transforme en « course à la compétitivité ne laissant pas le temps de prendre des précautions de sécurité suffisantes ».
L’entreprise s’engageait à mettre un coup d’arrêt à ses propres modèles pour aider tout projet « aligné sur [ses] valeurs et soucieux de sécurité » qui se rapprocherait davantage de la construction d’une AGI.
« Nous préciserons les modalités… mais un déclencheur typique pourrait être une "probabilité de succès supérieure à une chance sur deux dans les deux prochaines années" », peut-on lire dans le document de 2018.
En 2026, il n’est plus question de se mettre en retrait au service d’une cause plus large. Le document reconnaît au contraire qu’OpenAI « pèse bien davantage dans le monde qu’il y a quelques années » et promet d’être transparent sur le moment et la manière dont ses principes de fonctionnement pourraient évoluer.
L’entreprise est engagée dans une concurrence intense avec plusieurs rivaux, dont Anthropic.
En février, Anthropic a refusé d’accorder à l’administration du président américain Donald Trump un accès illimité à son IA à des fins militaires, ce qui a conduit à ce que l’entreprise soit considérée comme un risque pour la chaîne d’approvisionnement et à ce qu’il soit ordonné aux agents fédéraux de cesser d’utiliser en mars l’assistant d’IA Claude d’Anthropic.
Le 28 février, OpenAI s’est ensuite engouffré dans la brèche en signant un accord avec le Department of War, ce qui a poussé certains utilisateurs à boycotter ChatGPT au profit de Claude.
Anthropic a également été valorisée ce mois-ci à 800 milliards de dollars (696 milliards d’euros), soit un niveau comparable à celui d’OpenAI.
Des appels, plutôt vagues, à l’échelle de la société
Dans le document de 2026, OpenAI appelle à plusieurs évolutions de société pour que le monde s’adapte mieux à l’IA.
« Nous imaginons un monde où la prospérité serait largement partagée, à un niveau qu’il est aujourd’hui difficile d’anticiper », peut-on lire. « Beaucoup de choses que nous nous sommes permis de rêver uniquement dans la science-fiction pourraient devenir réalité, et la plupart des gens pourraient mener une vie plus riche de sens que ce n’est le cas aujourd’hui pour la majorité. »
Cet avenir n’est toutefois pas garanti, car l’IA peut soit être « détenue par une petite poignée d’entreprises utilisant et contrôlant la super-intelligence », soit « détenue de manière décentralisée par les gens », poursuit le document.
Le texte réaffirme aussi certaines des recommandations politiques récemment formulées par OpenAI, notamment l’appel aux gouvernements à envisager « de nouveaux modèles économiques » et à développer des technologies permettant de faire baisser le coût des infrastructures d’IA.
« Une grande partie de ce que nous faisons et qui peut paraître étrange, comme acheter d’énormes capacités de calcul alors que notre chiffre d’affaires reste relativement modeste… est guidée par notre conviction fondamentale en un avenir de prospérité universelle », indique encore le document.