Un incident majeur menaçant la sécurité nationale avec une vidéo deepfake IA comme coupable : c’est l’une des « prédictions chocs » de Saxo cette année, une tradition annuelle dans laquelle les experts du courtier en ligne se livrent à des expériences de pensée. Des universitaires mettent également en garde contre la percée du deepfake malveillant.
Dans l’actualité : Les prédictions quelque peu difficiles de Saxo tentent d’identifier les tendances qui deviendront encore plus importantes en 2024. Les cybercriminels, qu’ils soient ou non à la solde d’un État, utilisent l’intelligence artificielle pour extraire des informations militaires ou d’autres informations sensibles. Cela pourrait se faire, par exemple, en utilisant des imitations profondes d’images, de vidéos ou de voix perfectionnées par l’IA.
Le scénario (fictif) : « Dans une tentative à haut risque, une organisation criminelle utilise le deepfake le plus trompeur jamais vu avec de l’IA générative », écrit Saxo dans l’une de ses prédictions. « Par le biais du phishing, elle convainc un haut fonctionnaire du gouvernement de divulguer des informations d’État extrêmement secrètes d’un pays développé. Cela provoque la plus grande crise de sécurité nationale depuis la Seconde Guerre mondiale. »
Et si c’était le cas ? Si une telle cyberattaque réussissait dans la réalité, elle déclencherait un contrecoup réglementaire, prédisent les observateurs de Saxo. « Dans un geste historique visant à contrer les effets secondaires catastrophiques de l’IA générative, les États-Unis et l’UE déclarent que tout contenu produit de cette manière doit être étiqueté « Fabriqué par l’IA » », poursuivent-ils dans leur histoire fantasmée.
Élections en 2024
Zoom arrière : L’expérience de Saxo s’inscrit dans le cadre d’une préoccupation plus large concernant l’utilisation malveillante de l’IA en 2024, avec des craintes particulières d’influence sur l’élection présidentielle américaine.
- Selon le théoricien des jeux Ethan Bueno de Mesquita (Université de Chicago), le pire scénario est celui d’une vidéo ou d’une photo « deepfake » représentant un candidat à la présidence dans une situation compromettante ou, par exemple, en compagnie du chef d’une organisation terroriste.
- « Des acteurs peu scrupuleux sont susceptibles de diffuser des ‘deepfakes’, peut-être testés et réglés de manière expérimentale pour un impact maximal, sans s’encombrer de normes de vérité ou de responsabilité publique », prédisent le chercheur et ses collègues dans un article.
- L’élection présidentielle américaine aura lieu le 5 novembre 2024. Selon le professeur de Chicago, une « surprise d’octobre » générée par l’IA risque de séduire de nombreux électeurs, surtout si les médias n’ont pas le temps de vérifier les faits.
- Les élections turques du début de l’année ont donné un avant-goût de la manière dont les clips d’IA peuvent être déployés, bien que toutes les séquences truquées n’aient pas été réalisées par des professionnels.
Ce qu’ils disent : Bueno de Mesquita et ses collègues universitaires appellent les entreprises technologiques telles que Meta, TikTok ou X, les médias et la société dans son ensemble à se préparer. « Vous pourriez prévoir d’analyser rapidement les fausses surprises attendues en octobre dès qu’elles apparaissent, en vous concentrant sur les plus notables qui ont la plus grande portée. Cela est particulièrement important dans les cas où le contenu est généré ou promu par un candidat politique majeur.
(JM)