Deepfakes vocaux : attention au nouveau piège favori des arnaqueurs

Les escrocs ont toujours une longueur d’avance, et souvent une certaine affinité avec les technologies les plus novatrices. Après les deepfakes en photo ou en vidéo, voici les faux appels téléphoniques de gens dont vous serez certains de reconnaître la voix. C’est quasiment intraçable, et cela peut vous coûter très cher.

C’est une technique vieille comme le web, voire comme l’écriture : vous recevez un message d’une personne proche qui se retrouve dans une situation difficile, que ce soit suite à des problèmes de santé, à un souci administratif à l’étranger, ou d’un peu tout ça à la fois. Pour régler le problème, il ou elle vous supplie de lui envoyer de l’argent. Vous serez bien sûr remboursé très vite, c’est promis. De toute façon vous avez confiance en cette personne.

Et bien sûr, vous ne reverrez jamais votre argent : c’était une arnaque à l’usurpation d’identité. Bien sûr, ce genre d’astuce par mail ou via les réseaux sociaux est assez connue maintenant. Mais là où on pourrait se laisser avoir, c’est si ce genre de scénario se produit au téléphone, et que vous reconnaissez bien la voix de votre proche.

Au téléphone avec un robot imitateur

C’est un scénario parfaitement crédible selon Fast Company. Après la photo et la vidéo, la science du deepfake se perfectionne jusqu’à pouvoir imiter des voix de manière convaincante. Et ce grâce à la convergence de quelques techniques de pointes qui, prises séparément, ont déjà un fort potentiel dystopique. Les générateurs de voix synthétiques d’abord, de plus en plus convaincantes entre les mains d’un bon technicien audio. Mais aussi les chatboxes de type ChatGPT, qui commencent à générer des scripts réalistes avec des réponses adaptatives en temps réel. De quoi tenir une conversation téléphonique de manière convaincante avec un être humain, et lui faire croire qu’il s’adresse réellement à une personne proche.

Chaque année, des milliers de personnes seraient victimes d’arnaques vocales, forcément bien plus difficiles à tracer qu’un message écrit, dont on peut au moins faire des captures d’écran. Il est bien plus difficile de retracer les appels, d’identifier les escrocs – qui peuvent opérer depuis l’étranger – et de récupérer les fonds.

Simuler la voix du patron pour toucher le pactole

Les sommes ainsi extorquées ont été estimées à un total de 11 millions de dollars en 2022, selon Ars Technica. Une somme à répartir sur 5.000 victimes connues, rien qu’aux USA. Or, nul doute que beaucoup de ces arnaques passent sous les radars de la Federal Trades Commission.

Et ces arnaques peuvent être bien plus imaginatives que de « simples » appels à l’aide factice qui prédatent sur l’état de panique et la solidarité des victimes. En 2019, une entreprise du secteur de l’énergie a été escroquée de 243.000 dollars lorsque des criminels ont simulé la voix du patron de sa société mère pour ordonner à un employé de transférer des fonds à un fournisseur. En théorie, aucune entreprise n’est à l’abri de ce genre de vol pour le moins audacieux. Et quitte à investir dans le matériel vocal nécessaire, autant viser gros.

Bienvenue dans un monde où plus rien n’est sûr et où absolument tous les faits, toutes les interactions, peuvent cacher une falsification. De quoi faire frémir les plus cyniques des auteurs et autres scénaristes dystopiques. La seule manière de s’en protéger, c’est de faire appel à notre intelligence humaine : garder la tête froide, et recontacter nos proches via un autre canal, voire mettre au point une règle comme quoi tout appel doit être précédé d’un SMS. Mais ce n’est pas gagné.

Plus