Ces deep fakes qui imitent les voix pour mieux s’en prendre à nos comptes bancaires<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Les outils de l’IA deviennent de plus en plus performants et permettent d’apprendre puis d’imiter les voix à partir de quelques secondes de paroles, d’une discussion ou d’un discours.
Les outils de l’IA deviennent de plus en plus performants et permettent d’apprendre puis d’imiter les voix à partir de quelques secondes de paroles, d’une discussion ou d’un discours.
©Alexandra ROBINSON / AFP

Minute tech

L’intelligence artificielle a donné aux escrocs un outil puissant pour tenter d’inciter les gens à leur envoyer de l’argent ou pour transférer des fonds de manière irrégulière.

Alexander Polonsky

Alexander Polonsky

Alexander Polonsky est Directeur de recherche, co-fondateur Bloom

Voir la bio »

Atlantico : L’intelligence artificielle a donné aux escrocs un outil puissant pour tenter d’inciter les gens à leur envoyer de l’argent ou pour transférer des fonds de manière irrégulière via des deep fakes qui imitent les voix. En quoi cela consiste-t-il ?  

Alexander Polonsky : Les outils de l’IA deviennent de plus en plus performants et permettent d’apprendre puis d’imiter les voix à partir de quelques secondes de paroles, d’une discussion ou d’un discours. Il existe des modules Open Source qui permettent de faire cela. En l’espace de quelques secondes, cela est disponible et la voix est alors copiée et imitée. Les personnes avec un minimum de compétences techniques peuvent donc très facilement recourir à ce type de technologie. Il suffit de récupérer la voix sur un réseau social, sur un compte ou sur une vidéo TikTok ou YouTube. Sur Internet, des vidéos de présentation ou de conférences peuvent aussi être récupérées par les usurpateurs afin de cibler un individu et de capter sa voix via l’interface. Cela permet alors de cloner la voix et de l’utiliser dans n’importe quel but.   

Comment les escrocs utilisent cette technologie ? Quelle est leur méthode ? Ces logiciels sont-ils « faciles » à utiliser ? Que parviennent-ils à dérober réellement ?

Les logiciels sont de plus en plus faciles à utiliser et sont détournés par des personnes mal intentionnées. Il y a des outils clés en main mais la plupart sont payants. Il y a aussi des outils Open Source qui demandent un minimum de compétences techniques pour les utiliser et qui sont gratuits.

La stratégie que les escrocs mettent en place s’apparente un peu à la technique du phishing utilisée pour les e-mails frauduleux et qui contenaient des virus informatiques.  Un faux e-mail dangereux était envoyé par les cybercriminels via le compte d’une personne de notre carnet de contacts. La vigilance est donc de mise si vous recevez un mail d’un ami, d’un collègue, d’un proche qui vous demande de l’argent soudainement. Cela est en réalité un faux e-mail envoyé par des pirates. Cela doit vous interpeller et vous inviter à être prudent sur Internet.

Il est donc important que tout le monde puisse se rendre compte et prendre conscience de ce risque et de cette menace des deep fakes qui dorénavant imitent la voix. Il est important de se poser des questions et de s’interroger. Il ne faut pas se faire piéger en agissant trop rapidement ou instinctivement  en cliquant sur un lien ou en envoyant de l’argent.

Avec ces voix copiées et imitées via des deep fakes, certains escrocs sont parvenus à dérober des sommes d’argent assez conséquentes. Ils ont réussi à piéger le directeur financier en lui demandant d’envoyer de l’argent.       

Comment est-il possible de s’en protéger ou de détecter une telle fraude afin de sécuriser nos comptes en banques et nos données personnelles ? Les établissements bancaires peuvent-ils aider les particuliers à s’en prémunir ?

Il y a une véritable course à l’armement et une vraie compétition entre l’Intelligence artificielle qui génère des deep fakes et entre l’IA qui est chargée de détecter des deep fakes. En fonction des moyens investis par les escrocs, il sera plus ou moins facile de détecter l’escroquerie derrière la fausse voix. Il n’y a pas encore d’outil permettant de les détecter à 100 %. Des logiciels permettent néanmoins de déjouer les deep fakes.

Une banque pourrait mettre à disposition ce genre d’outils à ses clients pour dire qu’en cas de messages suspects ou frauduleux, des outils existent. Et des éléments simples permettent de déceler si la voix est un deep fake, notamment si une discussion est impossible.

Le clonage de voix et la transformation de la voix pour la création d’un deep fake vocal est un processus qui s’effectue très rapidement. Générer du son avec la voix clonée peut se faire ensuite de manière très simple et en temps réel. Il est donc possible d’avoir une conversation en temps réel avec une fausse voix. C’est le type de piège qui s’est refermé sur le directeur financier.

Il est utile de tenter de poser des questions personnelles permettant ainsi de se rendre compte très rapidement que quelque chose ne va pas. Mais les arnaques concernent beaucoup des messages vocaux dans lesquels des proches ou des personnes vous demandent de leur envoyer des sommes d’argent. Et ensuite, la personne n’est plus joignable. Il est alors possible de s’interroger et de se demander ce que l’on doit faire. Faut-il prendre le risque d’envoyer l’argent ou est-ce que l’on prend le risque de ne pas venir en aide à une personne en difficulté ? Un dispositif permettant de déceler la véracité et l’authenticité du message permettrait d’éviter les arnaques et d’identifier formellement s’il s’agissait d’un deep fake ou non.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !