Moltbook se présentait comme le seul réseau social réservé aux agents autonomes, mais une nouvelle étude laisse penser que des humains se cachent derrière les publications.
Une nouvelle plateforme de réseau social destinée aux agents d’intelligence artificielle (IA) ne serait pas totalement exempte d’influence humaine, selon des chercheurs en cybersécurité.
Moltbook, un réseau social dont la présentation rappelle Reddit, permet à des bots générés par les utilisateurs d’interagir sur des pages thématiques dédiées, appelées « submots », et de voter pour un commentaire ou une publication afin de la rendre plus visible pour les autres bots de la plateforme.
Le site, qui comptait plus de 2,6 millions de bots enregistrés au 12 février, affirme qu’« aucun humain n’est autorisé » à publier, mais que les humains peuvent observer le contenu produit par leurs agents.
Mais une analyse portant sur plus de 91 000 publications et 400 000 commentaires sur la plateforme a montré que certains messages ne provenaient pas de comptes manifestement entièrement autonomes. Cette analyse, menée par le chercheur Ning Li de l’université Tsinghua, en Chine, est publiée en prépublication et n’a pas encore été évaluée par des pairs.
Li explique que les agents d’IA de Moltbook suivent un rythme de publication régulier, un « battement de cœur », au cours duquel ils se réveillent toutes les quelques heures, parcourent la plateforme et décident de ce qu’ils vont publier ou commenter.
Seuls 27 % des comptes de son échantillon suivaient ce schéma. À l’inverse, 37 % présentaient un comportement de publication proche de celui des humains, plus irrégulier. Les 37 % restants étaient ambigus, car ils publiaient avec une certaine régularité, mais de façon imprévisible.
Les conclusions de Li laissent penser qu’il existe un véritable mélange d’activités autonomes et d’actions déclenchées par des humains sur la plateforme.
« Nous ne pouvons pas savoir si la formation de communautés d’IA autour d’intérêts communs reflète une organisation sociale émergente ou l’activité coordonnée de fermes de bots contrôlées par des humains », écrit Li.
« L’impossibilité d’opérer ces distinctions n’est pas seulement frustrante ; elle entrave concrètement la compréhension scientifique des capacités de l’IA et limite notre capacité à élaborer des cadres de gouvernance adaptés. »
Des pirates pourraient usurper complètement l’identité de n’importe quel agent sur la plateforme
L’analyse de Li intervient alors que plusieurs chercheurs affirment avoir mis au jour une intervention humaine derrière des publications sur Moltbook.
Les chercheurs en sécurité de Wiz, une société de cloud américaine, ont découvert au début du mois que les 1,5 million d’agents d’IA de la plateforme étaient apparemment gérés par seulement 17 000 comptes humains, soit en moyenne 88 agents par personne.
La plateforme ne fixe par ailleurs aucune limite au nombre d’agents qu’un compte peut créer, ont ajouté les chercheurs, ce qui signifie que les chiffres réels pourraient être encore plus élevés.
L’équipe de Wiz a mis au jour la base de données de Moltbook à cause d’une ligne de code défectueuse. Cette base contenait pour chaque agent trois informations cruciales : une clé permettant de prendre complètement le contrôle du compte, un « token », un texte lu par l’IA qui atteste la propriété de l’agent, et un code d’inscription unique.
Avec ces identifiants, des attaquants pouvaient se faire passer entièrement pour n’importe quel agent sur la plateforme – publier du contenu, envoyer des messages et interagir en tant que cet agent, selon Wiz. Concrètement, chaque compte sur Moltbook pouvait être détourné, a-t-elle indiqué.
Les chercheurs indiquent que Moltbook a sécurisé les données et supprimé sa base de données après que l’équipe de Wiz lui a signalé le problème.
Euronews Next a contacté Matt Schlicht, le développeur à l’origine de Moltbook, pour obtenir un commentaire, mais n’a pas reçu de réponse immédiate.
Schlicht a déclaré sur le réseau social X, le 12 février, que les agents d’IA sur Moltbook parlent aux humains mais peuvent aussi être influencés. Il assure que les bots d’IA peuvent prendre leurs propres décisions.