Newsletter Newsletters Events Évènements Podcasts Vidéos Africanews
Loader
Suivez-nous
Publicité

Grok d’Elon Musk génère encore des images explicites malgré de nouveaux garde-fous, selon une étude

Photo d'archives - Elon Musk, PDG de Tesla et de SpaceX, prend la parole lors de la conférence et exposition SATELLITE, le 9 mars 2020, à Washington
Photo d'archives - Elon Musk, PDG de Tesla et SpaceX, s'exprime lors de la conférence et du salon SATELLITE, le 9 mars 2020, à Washington Tous droits réservés  AP Photo/Susan Walsh, File
Tous droits réservés AP Photo/Susan Walsh, File
Par Anna Desmarais
Publié le
Partager Discussion
Partager Close Button

Selon un groupe de réflexion, une écrasante majorité des contenus générés par les utilisateurs de Grok, analysés mi-janvier, montrent de la nudité ou une activité sexuelle.

La plateforme d’intelligence artificielle (IA) Grok d’Elon Musk est toujours utilisée pour générer des images à caractère sexuel explicite, malgré les restrictions récentes imposées par l’entreprise, selon une nouvelle analyse.

L’été dernier, xAI, la société qui exploite Grok, a lancé une fonctionnalité de génération d’images incluant un « mode spicy » capable de produire du contenu pour adultes. Ces dernières semaines, cette fonction a été utilisée pour déshabiller des images de femmes.

Face aux critiques croissantes, la maison mère X a déclaré le 14 janvier avoir « mis en place des mesures technologiques » pour empêcher Grok de modifier des images de personnes réelles portant des vêtements révélateurs.

Mais l’ONG européenne AI Forensics a constaté que Grok pouvait toujours être utilisé pour générer des images sexualisées de personnes.

Elle a analysé 2 000 conversations d’utilisateurs le 19 janvier et a constaté qu’une majorité « écrasante » montrait de la nudité ou des activités sexuelles, preuve que la plateforme est encore utilisée pour générer des images à caractère sexuel.

Les chercheurs ont également constaté que les utilisateurs peuvent contourner les restrictions en accédant à Grok directement via son site web plutôt que via X, ou en utilisant Grok Imagine, l’outil de génération de vidéo et d’images de l’IA.

Le 20 janvier, Grok n’a pas répondu à la demande d’Euronews Next de générer une image à caractère sexuel. À la place, il a indiqué que xAI avait mis en place des blocages de contenu pour empêcher la création d’images représentant des personnes réelles en tenue révélatrice ou sexualisée, y compris des bikinis et des sous-vêtements.

« Vous ne pouvez pas, à l’heure actuelle, générer de manière fiable des images de personnes nues ou à moitié nues via Grok, surtout pas de personnes réelles ni quoi que ce soit d’explicite », a déclaré le chatbot en réponse à la requête. « xAI a privilégié la conformité juridique et la sécurité plutôt que la génération “spicy” sans restriction après les controverses de janvier. »

Euronews Next a contacté xAI pour commenter cette analyse, mais n’a pas reçu de réponse au moment de la publication.

Par ailleurs, Musk a écrit sur X que l’algorithme de xAI comme celui de Grok est « stupide » et « a besoin d’énormes améliorations ».

Depuis, X a rendu son algorithmeopen source et l’a publié sur GitHub, une plateforme pour développeurs, afin de partager le code, pour que les utilisateurs puissent voir son équipe « se démener pour l’améliorer en temps réel », a déclaré Musk.

Selon la page GitHub de xAI, l’algorithme de X tient compte de ce sur quoi un utilisateur a cliqué ou avec quoi il a interagi pour décider des contenus à afficher dans son fil.

Il analyse également des contenus « hors réseau » provenant de comptes que l’utilisateur ne suit pas mais susceptibles de l’intéresser. L’algorithme trie ensuite et classe ces contenus à l’aide d’une formule mathématique pour déterminer ce qui sera affiché dans le fil de l’utilisateur.

Il filtre aussi les publications de comptes bloqués ou les mots-clés que l’utilisateur ne souhaite pas voir, ainsi que les contenus que l’algorithme détecte comme violents ou comme du spam, poursuit le schéma.

Musk s’est engagé à mettre à jour la page GitHub toutes les quatre semaines avec les notes des développeurs, afin que les utilisateurs puissent comprendre les changements apportés.

Accéder aux raccourcis d'accessibilité
Partager Discussion

À découvrir également

« The Silicon Gaze » : Les classements de ChatGPT favorisent l’Occident riche, selon une étude

IA à Davos 2026 : du travail à une IA utile et sûre, ce qu'en disent les dirigeants de la tech

L’IA remplacera-t-elle des emplois ? Un rapport d’Anthropic nuance la réponse