Des experts affirment que des outils d’IA, existants ou émergents, pourraient techniquement servir à créer une arme biologique déclenchant une pandémie.
Plus tôt cette année, certains des meilleurs spécialistes mondiaux des technologies et de la lutte antiterroriste se sont réunis pour se pencher sur un scénario hypothétique : une pandémie mondiale déclenchée par une nouvelle souche d'entérovirus, créée intentionnellement par un groupe extrémiste à l'aide de l'intelligence artificielle (IA).
Ce scénario peut ressembler à l'intrigue d'un roman de science-fiction, mais il est tout à fait plausible dans les années à venir, selon le groupe de 14 experts réunis pour discuter des garde-fous de l'IA dans les sciences de la vie.
Les experts ont jugé que cette pandémie fictive (qui envisageait 850 millions de cas et 60 millions de décès dans le monde) était « extrêmement préoccupante et justifiait des mesures à court terme pour la prévenir », selon un rapport sur les discussions du groupe.
L'IA révolutionne déjà le domaine médical et promet d'accélérer le développement de nouveaux médicaments et vaccins. Mais des experts ont aussi exprimé leurs inquiétudes qu'une arme biologique propulsée par l'IA puisse faire des ravages à l'échelle de l'humanité.
Le groupe d'experts, réuni en février à l'initiative de la Nuclear Threat Initiative et de la Conférence de Munich sur la sécurité, a averti que l'évolution rapide de l'IA « érode les barrières au développement d'armes biologiques par des acteurs malveillants ».
Ces menaces ne relèvent pas d'un futur lointain, a estimé le groupe. Techniquement, il serait possible d'utiliser des outils biologiques existants et émergents pilotés par l'IA pour créer de nouveaux agents pathogènes présentant des risques de niveau pandémique, ont indiqué les experts.
De plus, les mesures de sécurité actuelles sont loin d'être prêtes à faire face à ces menaces, selon le groupe.
Les experts ont appelé à une coopération accrue entre les dirigeants mondiaux afin d'évaluer et de contrer les menaces biologiques liées à l'IA.
Ils ont également estimé que les efforts visant à gérer les risques liés à l'IA doivent être mis en balance avec les bénéfices potentiels de ces technologies afin « d'éviter d'imposer des contraintes excessives » à l'innovation scientifique.