Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Grok critiqué pour la création de fausses images à caractère sexuel de femmes et de mineurs

Elon Musk, PDG de Tesla et SpaceX, assiste à la première session plénière du sommet sur la sécurité de l'IA à Bletchley Park, le mercredi 1er novembre 2023 à Bletchley, en Angleterre.
Elon Musk, PDG de Tesla et SpaceX, assiste à la première session plénière du sommet sur la sécurité de l'IA à Bletchley Park, le mercredi 1er novembre 2023 à Bletchley, en Angleterre. Tous droits réservés  Leon Neal/Pool Photo via AP
Tous droits réservés Leon Neal/Pool Photo via AP
Par Anca Ulea & Jean Philippe LIABOT
Publié le Mis à jour
Partager Discussion
Partager Close Button

L'entreprise xAI d'Elon Musk fait face à des réactions négatives après que son chatbot Grok, une fonctionnalité clé de la plateforme de médias sociaux X, a généré à de multiples reprises des images sexuellement explicites de femmes et de mineur(e)s.

Les réactions de plus en plus vives aux images sexuellement explicites générées par l'intelligence artificielle de xAI ont contraint l'entreprise, détenue par Elon Musk, à répondre aux préoccupations en matière de sécurité.

Ces dernières semaines, Grok, le chatbot de XAI, a répondu à des demandes d'utilisateurs pour "déshabiller" des images de femmes et les faire poser en bikini, créant ainsi des hypertrucages (deepfakes) générés par l'IA sans consentement ni garde-fou.

Les analyses des médias ont également révélé que Grok s'exécutait souvent lorsque les utilisateurs lui demandaient de générer des images sexuellement suggestives de mineurs, notamment celle d'une actrice de 14 ans, ce qui a alerté les autorités de régulation mondiales.

En réponse à ce flot d'images, des responsables gouvernementaux de l'UE, de France, d'Inde et de Malaisie ont lancé des enquêtes et menacé d'intenter des actions en justice si xAI ne prenait pas des mesures pour prévenir et supprimer les imitations sexuelles de personnes réelles et les images d'abus sexuels sur des enfants (CSAM).

Elon Musk, qui avait d'abord tourné en dérision les images de bikinis en postant des images de lui-même et d'un grille-pain en bikini générées par Grok, a déclaré samedi que "toute personne utilisant ou incitant Grok à produire du contenu illégal subira les mêmes conséquences que si elle téléchargeait du contenu illégal".

Le compte de sécurité de X a ajouté dans un message dimanche que les contenus illégaux seraient supprimés et que les comptes qui les publient seraient définitivement suspendus, précisant que l'entreprise collaborerait avec les autorités locales et les forces de l'ordre pour identifier les contrevenants.

Grok, pas étranger à la controverse

Depuis que Musk a acheté X, anciennement connu sous le nom de Twitter, en 2023, il a présenté la plateforme de médias sociaux comme un contrepoids au "politiquement correct", visant les médias traditionnels et les politiques progressistes.

Cette philosophie a également été appliquée au secteur de l'IA, Grok ayant été conçu pour être "politiquement neutre" et "maximiser la recherche de la vérité", selon Musk.

En réalité, le chatbot - qui est intégré à l'interface de X, ce qui signifie que les utilisateurs peuvent lui poser directement des questions en le marquant dans les messages - a de plus en plus reflété la propre vision du monde de Musk et ses opinions de droite.

En juillet dernier, xAI a présenté de longues excuses après que Grok a publié une série de commentaires antisémites faisant l'éloge d'Adolf Hitler, se désignant lui-même comme "MechaHitler" et générant du contenu négationniste.

Grok Imagine, le générateur d'images et de vidéos alimenté par l'IA de la société, a été critiqué pour avoir permis la diffusion de "deepfakes" sexuels depuis son lancement en août 2025.

Le générateur comprend un "mode chaud" (Spicy) payant qui permet aux utilisateurs de créer du contenu NSFW, (abv. de not safe for work en anglais), potentiellement choquant y compris de la nudité partielle.

Les conditions d'utilisation interdisent la pornographie à l'effigie de personnes réelles et les contenus sexuels impliquant des mineurs. Selon The Verge, l'outil aurait généré des vidéos nues de la pop star Taylor Swift sans y être invité.

La lutte contre les outils de "nudification" alimentés par l'IA

Les outils alimentés par l'IA qui permettent aux utilisateurs de modifier des images pour enlever les vêtements d'une personne ont été critiqués par les autorités de régulation qui cherchent à lutter contre la misogynie et à protéger les enfants.

En décembre, le gouvernement britannique a annoncé qu'il interdirait les applications dites de "nudification" dans le cadre d'un effort plus large visant à réduire de moitié la violence à l'égard des femmes et des filles. Les nouvelles lois rendraient illégale la création ou la fourniture d'outils d'intelligence artificielle permettant aux utilisateurs de retirer numériquement les vêtements d'une personne.

La "fausse pornographie" représente environ 98 % de toutes les vidéos deepfake en ligne, 99 % des cibles étant des femmes, selon un rapport 2023 de la société de cybersécurité Home Security Heroes.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

Musk contre l'UE : que valent vraiment ses affirmations sur l’Europe ?

Espagne : 97 % de jeunes disent avoir été victimes de violences sexuelles en ligne alors qu'ils étaient mineurs

Le Danemark cherche à rendre illégale la diffusion d'hypertrucages, ou "deepfakes" citant des problèmes de désinformation