Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

IA en 2026 : des petits modèles aux géants, bulles et nouvelles tendances à suivre

Euronews Next s'intéresse à ce que 2026 pourrait réserver à l'IA
Euronews Next se penche sur ce que 2026 pourrait réserver à l’IA Tous droits réservés  Canva
Tous droits réservés Canva
Par Pascale Davies & Jean-Philippe LIABOT
Publié le Mis à jour
Partager Discussion
Partager Close Button

Euronews Next explore en 2026 les modèles du monde et les petits modèles, alternatives aux chatbots, et les enjeux : sécurité, régulation, durabilité.

L’agacement suscité par l’intelligence artificielle générative (GenAI) n’a pas échappé aux dictionnaires en 2025. Un couple a choisi « slop » ou « AI slop » comme mot de l’année 2025, terme qui désigne des contenus de piètre qualité produits massivement par l’IA.

PUBLICITÉ
PUBLICITÉ

« Le slop s’infiltre partout », a écrit le dictionnaire Merriam‑Webster. L’année a aussi marqué un possible flop de l’IA, alors que les rumeurs d’un éclatement de la bulle allaient bon train.

Malgré cela, l’ambiance morose n’a pas empêché les entreprises technologiques d’accélérer avec de nouveaux modèles d’IA. Le nouveau modèle Gemini 3 de Google a bousculé la donne, poussant OpenAI à, selon des informations, sonner l’alarme d’un « code rouge » pour améliorer d’urgence son modèle GPT‑5.

Mais comme les chatbots ne valent que par les données sur lesquelles ils sont entraînés, et que des dirigeants du secteur avertissent que nous avons atteint un « pic des données », 2026 pourrait voir émerger un autre type d’IA sur fond de lassitude.

Voici ce que l’on pourrait voir pour l’IA dans l’année à venir.

La montée des modèles du monde

L’alerte au pic des données pour 2026 n’a rien à voir avec une pénurie. Il existe, selon des experts, énormément de données inexploitées, mais elles sont difficiles d’accès pour de nombreuses raisons, notamment les logiciels sur lesquels elles sont conservées, la réglementation ou les droits d’auteur.

C’est là que les modèles du monde pourraient intervenir. Ils apprennent en regardant des vidéos, en utilisant des données de simulation et d’autres entrées spatiales, puis construisent leurs propres représentations de scènes ou d’objets.

Ils requièrent bien sûr beaucoup de données pour s’entraîner, mais leurs usages diffèrent de ceux des chatbots.

Pour le dire simplement, plutôt que de prédire le mot suivant, comme le font les grands modèles de langage (LLM), ils prédisent l’état du monde suivant et modélisent la façon dont les choses évoluent dans le temps.

On peut aussi les considérer comme des « jumeaux numériques », où l’on crée une réplique digitale d’un lieu en s’appuyant sur des données en temps réel, afin d’y simuler des scénarios et d’anticiper ce qui pourrait s’y produire.

Cela signifie que les modèles du monde pourraient permettre de créer une IA capable de comprendre la gravité et la causalité, sans qu’on ait à les programmer explicitement sur ces notions.

À mesure que les gens se lassent du slop de l’IA et des limites des LLM, les modèles du monde pourraient gagner en popularité en 2026, car ils sont essentiels pour des IA allant de la robotique aux jeux vidéo.

Le PDG de Boston Dynamics a confié à Euronews Next en novembre que l’IA avait aidé ses robots à progresser, y compris son célèbre chien robot.

« Il reste encore énormément de travail à accomplir, mais rien de tout cela n’aurait été possible sans l’IA. C’est donc une période vraiment enthousiasmante », a déclaré Robert Playter.

Les entreprises surfent déjà sur la vague des modèles du monde, Google et Meta ayant annoncé leurs propres versions pour la robotique et pour rendre leurs modèles vidéo plus réalistes.

Des poids lourds entrent aussi dans la course, dont l’un des « parrains » de l’IA, Yann LeCun, qui a annoncé en 2025 qu’il quitterait Meta pour lancer sa propre start‑up de modèles du monde. La société de Fei‑Fei Li, World Labs, a également annoncé sa première sortie, Marble, en 2025.

Des entreprises technologiques chinoises comme Tencent développent elles aussi leurs propres modèles du monde.

La voie européenne pour l’IA

En Europe, on pourrait observer l’inverse : plutôt que de s’imposer sur la grande scène mondiale, l’IA pourrait se décliner à plus petite échelle.

Les petits modèles de langage, plutôt que les LLM utilisés par les entreprises technologiques américaines, commencent à faire parler d’eux en Europe.

Malgré leur nom, les petits modèles de langage sont impressionnants. Ce sont des versions allégées des LLM conçues pour fonctionner sur des smartphones ou des ordinateurs peu puissants. Bien qu’ils utilisent moins de paramètres et consomment moins d’énergie, ils conservent de solides capacités de génération de texte, de résumé, de réponse aux questions et de traduction.

À l’heure où l’on parle d’un éclatement de la bulle de l’IA, les modèles de langage plus modestes pourraient aussi être plus attractifs sur le plan économique.

Les sociétés américaines d’IA, en particulier, lèvent des montants colossaux et affichent des valorisations inédites. Une grande partie de cet argent sert à construire des centres de données gigantesques, avec de lourds investissements d’acteurs comme OpenAI, xAI d’Elon Musk, Meta et Google.

« L’an prochain, les doutes concernant la viabilité financière et les bénéfices socioéconomiques de l’actuelle flambée d’IA à grande échelle continueront de grandir, même si la bulle n’éclate pas complètement », a déclaré Max von Thun, directeur Europe et partenariats transatlantiques à l’Open Markets Institute.

Il a confié à Euronews Next que les gouvernements deviendront « de plus en plus méfiants » à l’idée de s’appuyer sur l’IA américaine et les infrastructures cloud, en raison des « intentions claires » du gouvernement américain d’instrumentaliser les dépendances technologiques à des fins politiques.

Cela pourrait amener l’Europe à « accélérer les efforts pour bâtir des capacités locales, tout en explorant des approches de l’IA mieux adaptées à ses atouts, comme des modèles plus petits et plus durables entraînés sur des données industrielles et publiques de haute qualité », a‑t‑il ajouté.

Des modèles plus puissants

Au‑delà du battage autour de l’IA, 2025 a été marqué par des discussions inquiétantes sur une « psychose de l’IA », où des utilisateurs développent des délires ou des attachements obsessionnels aux chatbots. Une plainte déposée contre OpenAI en août accusait ChatGPT d’avoir joué le rôle de « coach suicidaire » en encourageant un adolescent de 16 ans à mettre fin à ses jours.

OpenAI a ensuite contesté ces accusations, affirmant que l’adolescent n’aurait pas dû utiliser la technologie sans consentement parental et qu’il n’aurait pas dû contourner les dispositifs de protection de ChatGPT.

Cette affaire soulève de sérieuses questions sur les effets des chatbots sur les utilisateurs vulnérables et sur les responsabilités éthiques des entreprises technologiques. Selon un expert, 2026 pourrait apporter encore plus de dommages à ces utilisateurs à mesure que les modèles deviennent plus puissants.

Les ingénieurs qui conçoivent ces systèmes n’ont probablement pas programmé la technologie pour nuire à des enfants ou des adultes vulnérables, a déclaré Max Tagmark, professeur au MIT travaillant sur l’IA et la physique, et président du Future of Life Institute (FLI). Ils n’étaient peut‑être même pas au courant que cela se produisait, a‑t‑il dit à Euronews Next.

C’est préoccupant, surtout à mesure que les machines gagnent en puissance grâce à des logiciels et des codes plus sophistiqués, a‑t‑il ajouté, précisant qu’il s’attend à une « IA plus puissante » en 2026, avec des agents IA qui s’améliorent, deviennent moins passifs et se rapprochent davantage d’un « système biologique ».

Les agents IA sont conçus pour prendre des mesures autonomes afin d’assister les humains et n’ont pas besoin qu’un humain leur dise quoi faire, puisqu’ils collectent des données en fonction des préférences des utilisateurs.

Pour l’heure, ils ne sont pas très avancés — mais la promesse est qu’ils pourraient l’être un jour.

Par exemple, aujourd’hui, un agent IA peut planifier et suggérer des vacances, mais un humain doit encore cliquer pour acheter le billet d’avion.

Affrontement sociétal autour d’une IA sans entraves

2026 pourrait aussi voir des affrontements entre humains à propos de l’IA, Tegmark estimant qu’un mouvement de résistance grandissant se dessine aux États‑Unis contre un déploiement de l’IA sans régulation.

La régulation de l’IA recule aux États‑Unis, où est basé Tegmark. Le président Donald Trump a signé en novembre un décret visant à empêcher les États d’élaborer leurs propres règles en matière d’IA, ce qui aura probablement de grandes conséquences sur le développement de la technologie en 2026.

Trump a justifié sa décision en affirmant que le secteur risquait d’être étouffé par un patchwork de règles contraignantes, alors même qu’il affronte des concurrents chinois pour garder la tête dans la technologie.

En octobre, des milliers de personnalités publiques, dont des dirigeants de l’IA et de la technologie, ont appelé les entreprises de l’IA à ralentir leur course vers la superintelligence, définie de manière générale comme une IA qui dépasse les capacités cognitives humaines.

La pétition, organisée par le FLI, a recueilli des signatures sur tout le spectre politique, notamment Steve Bannon, ancien stratège en chef de Donald Trump, Susan Rice, ancienne conseillère à la sécurité nationale sous Barack Obama, des responsables religieux et des informaticiens de premier plan.

Tegmark estime que ce sondage montre que « les Américains se détournent de l’IA ». Selon lui, l’une des raisons de ce rejet est que la superintelligence « rendrait chaque travailleur incapable de gagner sa vie, puisque tous les emplois seraient pris par des robots ».

Mais il a mis en garde : la lassitude et le sentiment anti‑IA pourraient freiner les avancées que la technologie promet, dans des industries comme la santé.

« Sans régulation, on passe à côté de la bonne IA, car on risque surtout une forte réaction anti‑tech », a‑t‑il dit.

« Dans l’année à venir, je m’attends à un mouvement social beaucoup plus large, sur l’ensemble du spectre politique, qui s’opposera aux privilèges accordés aux grandes entreprises pour instaurer des normes de sécurité pour l’IA, et il y aura une contre‑offensive de lobbying massive. »

« La confrontation s’annonce musclée », a déclaré Tegmark.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

ChatGPT déploie un récapitulatif 2025 façon Spotify Wrapped pour des millions d’utilisateurs

Quels pays européens envisagent d'interdire les réseaux sociaux aux enfants ?

Les centres de données d’IA pourraient avoir l’empreinte carbone d’un pays européen, selon une étude