Les 4 dangers de l'IA selon Geoffrey Hinton, un de ses pionniers

Pourquoi l'intelligence artificielle suscite-t-elle tant de craintes - et que pouvons-nous faire ?
Pourquoi l'intelligence artificielle suscite-t-elle tant de craintes - et que pouvons-nous faire ? Tous droits réservés Canva
Tous droits réservés Canva
Par Euronews avec AP
Partager cet articleDiscussion
Partager cet articleClose Button

Voici quelques-unes des plus grandes inquiétudes exprimées au sujet de l'avenir de l'IA - et de l'humanité.

PUBLICITÉ

D'éminents experts en intelligence artificielle (IA) ont tiré la sonnette d'alarme quant au rythme et à l'ampleur des récentes avancées dans ce domaine, avertissant qu'elles ne représentent rien de moins qu'une menace pour l'humanité.

C'est notamment le cas de Geoffrey Hinton, un informaticien primé connu sous le nom de "parrain de l'IA", qui a quitté son emploi chez Google le mois dernier pour faire part de ses inquiétudes concernant le développement incontrôlé de nouveaux outils d'IA.

"J'ai soudainement changé d'avis sur la question de savoir si ces objets seront plus intelligents que nous", a déclaré M. Hinton, 75 ans, dans une interview accordée cette semaine à la MIT Technology Review.

"Je pense qu'elles en sont très proches aujourd'hui et qu'elles seront beaucoup plus intelligentes que nous à l'avenir... Comment allons-nous survivre à cela ?

M. Hinton n'est pas le seul à s'inquiéter. En février, même Sam Altman, PDG d'OpenAI, le développeur de ChatGPT, a déclaré que le monde n'était peut-être pas "si loin d'outils d'IA potentiellement effrayants" et que la réglementation serait essentielle, mais qu'il faudrait du temps pour la mettre en place.

Peu après que la start-up soutenue par Microsoft a publié son dernier modèle d'IA appelé GPT-4 en mars, plus de 1 000 chercheurs et technologues ont signé une lettre appelant à une pause de six mois dans le développement de l'IA car, selon eux, elle pose de "profonds risques pour la société et l'humanité".

Voici un aperçu des principales préoccupations exprimées par M. Hinton et d'autres experts.

1. L'IA pourrait déjà être plus intelligente que nous

Nos cerveaux humains sont capables de résoudre des équations, de conduire des voitures et de suivre les séries Netflix grâce à leur talent inné pour organiser et stocker des informations et trouver des solutions à des problèmes épineux.

Les quelque 86 milliards de neurones qui peuplent notre crâne et, surtout, les 100 000 milliards de connexions que ces neurones établissent entre eux, rendent tout cela possible.

En revanche, la technologie qui sous-tend le ChatGPT comporte entre 500 milliards et mille milliards de connexions, a déclaré M. Hinton. Bien que cela semble la désavantager considérablement par rapport à nous, M. Hinton note que GPT-4, le dernier modèle d'IA d'OpenAI, en sait "des centaines de fois plus" que n'importe quel être humain. Peut-être, suggère-t-il, dispose-t-il d'un "algorithme d'apprentissage bien meilleur" que le nôtre, ce qui le rend plus efficace dans les tâches cognitives.

Les chercheurs constatent depuis longtemps que les réseaux neuronaux artificiels mettent beaucoup plus de temps que les humains à assimiler et à appliquer de nouvelles connaissances, car leur formation nécessite d'énormes quantités d'énergie et de données.

Ce n'est plus le cas, affirme M. Hinton, qui note que des systèmes comme le GPT-4 peuvent apprendre de nouvelles choses très rapidement une fois qu'ils ont été correctement formés par les chercheurs. Cela n'est pas sans rappeler la façon dont un physicien professionnel formé peut assimiler de nouveaux résultats expérimentaux beaucoup plus rapidement qu'un étudiant en sciences de l'enseignement secondaire.

Cela amène M. Hinton à conclure que les systèmes d'IA pourraient déjà être plus intelligents que nous : non seulement ils peuvent apprendre des choses plus rapidement, mais ils peuvent également partager des copies de leurs connaissances avec d'autres presque instantanément.

"Il s'agit d'une forme d'intelligence complètement différente", a-t-il déclaré au MIT Technology Review. "Une nouvelle et meilleure forme d'intelligence.

2. L'IA peut "suralimenter" la diffusion de fausses informations

Que feraient des systèmes d'IA plus intelligents que l'homme ? L'une des possibilités les plus inquiétantes est que des individus, des groupes ou des États-nations malveillants les cooptent tout simplement pour servir leurs propres intérêts.

Selon un nouveau rapport de NewsGuard, qui évalue la crédibilité des sites web et traque la désinformation en ligne, des dizaines de sites de fausses nouvelles se sont déjà répandus sur le web dans plusieurs langues, certains publiant des centaines d'articles générés par l'IA chaque jour.

M. Hinton s'inquiète particulièrement du fait que les outils d'IA pourraient être formés pour influencer les élections et même mener des guerres.

La désinformation électorale diffusée par les chatbots d'IA, par exemple, pourrait être la version future de la désinformation électorale diffusée par Facebook et d'autres plateformes de médias sociaux.

PUBLICITÉ

Et ce n'est peut-être que le début.

"Ne pensez pas un instant que Poutine ne fabriquerait pas des robots hyperintelligents dans le but de tuer des Ukrainiens", a déclaré M. Hinton dans l'article. "Il n'hésiterait pas.

3. L'IA nous rendra-t-elle inutiles ?

OpenAI estime que 80 % des travailleurs aux États-Unis pourraient voir leur emploi affecté par l'IA, et un rapport de Goldman Sachs indique que la technologie pourrait mettre en péril 300 millions d'emplois à temps plein dans le monde.

Selon M. Hinton, la survie de l'humanité est menacée lorsque "des objets intelligents peuvent être plus intelligents que nous".

"Il se peut que nous restions dans les parages pendant un certain temps pour faire fonctionner les centrales électriques", a déclaré M. Hinton lors de la conférence EmTech Digital du MIT Technology Review, qui s'est déroulée mercredi depuis son domicile par vidéo. "Mais après cela, ce ne sera peut-être plus le cas.

PUBLICITÉ

"Ces choses auront appris de nous, en lisant tous les romans qui ont existé et tout ce que Machiavel a écrit, comment manipuler les gens", a déclaré M. Hinton. "Même s'ils ne peuvent pas actionner directement des leviers, ils peuvent certainement nous faire actionner des leviers".

4. Nous ne savons pas vraiment comment l'arrêter

"J'aimerais avoir une solution simple et agréable à proposer, mais je n'en ai pas", a ajouté M. Hinton. "Je ne suis pas sûr qu'il y ait une solution".

Les gouvernements sont toutefois très attentifs à l'essor de l'IA. La Maison-Blanche a convoqué les PDG de Google, de Microsoft et d'OpenAI, le fabricant de ChatGPT, pour une rencontre jeudi avec la vice-présidente Kamala Harris, dans le cadre de ce que les responsables décrivent comme une discussion franche sur la manière d'atténuer les risques à court et à long terme de leur technologie.

Les législateurs européens accélèrent également les négociations en vue d'adopter de nouvelles règles radicales en matière d'IA, et l'autorité britannique de régulation de la concurrence prévoit d'examiner l'impact de l'IA sur les consommateurs, les entreprises et l'économie, et de déterminer si de nouveaux contrôles sont nécessaires pour les technologies telles que le ChatGPT.

Ce qui n'est pas clair, c'est comment on pourrait empêcher une puissance comme la Russie d'utiliser la technologie de l'IA pour dominer ses voisins ou ses propres citoyens.

PUBLICITÉ

M. Hinton suggère qu'un accord mondial similaire à la convention sur les armes chimiques de 1997 pourrait constituer un premier pas vers l'établissement de règles internationales contre l'utilisation de l'IA à des fins militaires.

Il convient toutefois de noter que la convention sur les armes chimiques n'a pas empêché ce que les enquêteurs ont estimé être de probables attaques syriennes au gaz de chlore et à l'agent neurotoxique sarin contre des civils en 2017 et 2018, au cours de la sanglante guerre civile qui déchire le pays.

Partager cet articleDiscussion

À découvrir également

Intelligence artificielle : le feu vert des eurodéputés sur un projet de règlement

Elections européennes : des réseaux sociaux sous influence, mais un peu mieux surveillés dans l'UE

Macron favorable à une restriction sur les réseaux sociaux pour les moins de 16 ans