Trucage de la voix : la menace grandissante du deepfake audio

La rubrique "Le Cube"
La rubrique "Le Cube" Tous droits réservés Euronews
Par Euronews
Partager cet articleDiscussion
Partager cet articleClose Button
Copier/coller le lien embed de la vidéo de l'article :Copy to clipboardLien copié

Imaginez que vous recevez un appel téléphonique d'un membre de votre famille : il a l'air angoissé et vous demande de l'argent immédiatement. Au final, vous découvrez que vous avez été victime d'une escroquerie...

PUBLICITÉ

Imaginez que vous recevez un appel téléphonique d'un membre de votre famille : il a l'air angoissé et vous demande de l'argent immédiatement. Au final, vous découvrez que vous avez été victime d'une escroquerie. L'appel téléphonique que vous avez reçu était en fait une fausse voix créée par l'intelligence artificielle.

Ce n'est pas le début d'un roman de science-fiction, c'est devenu une réalité pour des milliers de personnes dans le monde. Cette technologie de trucage de la voix s'appelle le "voice deepfake". Avec quelques euros, vous pouvez payer un certain nombre d'entreprises pour produire des clones de voix de haute qualité suffisamment convaincants pour tromper les gens.

Un exemple récent devenu viral : des utilisateurs de 4chan, un forum en ligne, ont reproduit la voix de l'actrice britannique Emma Watson en train de lire "Mein Kampf" d'Adolf Hitler. Ils ont utilisé un outil de clonage de la voix appelé Prime Voice de la startup ElevenLabs.

De nombreux experts s'inquiètent. Tout d'abord, car cet outil peut être utilisé pour faire de la désinformation. Par exemple en faisant croire qu'un homme politique a fait une déclaration choquante qu'il n'a en réalité jamais prononcée ou escroquer les gens, en particulier les personnes âgées.

Et cela ne demande pas beaucoup d'efforts, comme l'explique Matthew Wright de la chaire informatique à l'Institut de technologie de Rochester : "Ils n'ont pas besoin d'énormément de voix pour faire une bonne reproduction. On peut donc imaginer qu'ils appellent en se faisant passer pour un commercial, qu'ils enregistrent assez de voix pour que ça marche, et c'est peut-être tout ce dont ils ont besoin."

Alors que faire pour éviter d'être victime d'une telle escroquerie ?

"Il est important de pouvoir vérifier l'information. Il faut donc utiliser une autre source, un autre canal. Vous pouvez inventer une excuse et dire que vous les rappelez. Et s'ils ont usurpé le numéro, ils ne recevront pas votre appel. Prenez un peu de recul et réfléchissez, assurez-vous que cela a du sens. Est-ce logique que votre patron vous demande d'acheter dix chèques-cadeaux de 250 dollars ? Probablement pas."

La société qui a créé le faux audio d'Emma Watson, que vous avez entendu, a déclaré avoir augmenté le prix de ses services et avoir commencé à vérifier manuellement les nouveaux comptes. Mais les experts avertissent qu'une législation devrait être mise en place pour éviter de telles escroqueries à l'avenir.

Partager cet articleDiscussion

À découvrir également

"La honte doit changer de camp" : une mannequin belge alerte sur les deepnudes

Pourquoi, Grok, le chatbot d'IA d'Elon Musk, ne peut être qualifié d'IA open source ?

Le CERN relance la recherche des "particules fantômes" de l'Univers