Principaux renseignements
- Les fraudeurs peuvent cloner la voix d’une personne en utilisant seulement quelques secondes d’audio.
- Des millions de personnes pourraient être victimes d’escroqueries liées au clonage de la voix par l’IA, qui ont déjà touché des centaines de personnes.
- Un quart des personnes interrogées ont déclaré avoir été la cible d’escroqueries par clonage de voix d’IA au cours de l’année écoulée.
Il y quelques jours, Business AM a rapporté qu’un consultant politique a été condamné à une amende de 6 millions de dollars, soit près de 5,4 millions d’euros, pour avoir utilisé l’IA afin de créer de faux appels imitant la voix du président Joe Biden.
Starling Bank, un prêteur en ligne basé au Royaume-Uni, a lancé un avertissement concernant la menace croissante des escroqueries par clonage vocal de l’IA. Ces escroqueries exploitent la capacité de l’intelligence artificielle à reproduire la voix d’une personne avec seulement quelques secondes d’audio, souvent extraites de vidéos en ligne. Les fraudeurs peuvent ensuite utiliser cette voix clonée pour se faire passer pour des amis ou des membres de la famille et inciter les gens à envoyer de l’argent.
La Starling Bank estime que des millions de personnes pourraient être victimes de ces escroqueries, qui ont déjà touché des centaines de personnes. Une enquête récente menée par la banque a révélé que plus d’un quart des personnes interrogées ont déclaré avoir été la cible d’escroqueries par clonage de voix d’IA au cours de l’année écoulée. Il est intéressant de noter que l’enquête a également mis en évidence un manque de sensibilisation, 46 pour cent des personnes interrogées déclarant ne pas être au courant de ces escroqueries.
Les risques et les conséquences
Lisa Grahame, responsable de la sécurité de l’information à la Starling Bank, a mis l’accent sur la vulnérabilité des personnes qui, sans le savoir, se font entendre en ligne. Pour lutter contre cette menace, la banque suggère d’établir une « phrase de sécurité » – un code unique et facilement mémorisable – avec les personnes qui nous sont chères. Cette phrase peut être utilisée pour vérifier l’identité lors d’appels téléphoniques.
Pour des raisons de sécurité, il est déconseillé de partager la phrase de sécurité par SMS. Toutefois, si elle est partagée de cette manière, elle doit être rapidement supprimée après confirmation par le destinataire. À mesure que la technologie de l’IA progresse dans l’imitation de la voix humaine, les inquiétudes se multiplient quant à son potentiel d’utilisation abusive, notamment l’accès non autorisé à des comptes bancaires et la diffusion d’informations erronées. OpenAI, le créateur de ChatGPT, a dévoilé son propre outil de reproduction de la voix, Voice Engine, mais s’est abstenu de le rendre public en raison des risques inhérents à la manipulation de la voix synthétique.
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!