Microsoft: la chasse aux Deepfakes s’organise à l’approche des élections

Jaap Arriens/Sipa USA/Isopix

Alors que les élections américaines approchent à grands pas, Microsoft lance un nouvel outil de détection des deepfakes. Ce dispositif permettra d’analyser une photo ou une vidéo qui déterminera avec un pourcentage si le contenu visionné a été trafiqué

Depuis plusieurs mois, les experts craignent que les deepfakes ne prennent le dessus durant les élections américaines.  Mais en quoi consistent les deepfakes? Ce sont des photos, des vidéos ou des fichiers audio qui sont manipulés par intelligence artificielle (IA) dans le but de faire circuler une information erronée. 

Microsoft a bien compris que la détection des deepfakes était cruciale dans  ce contexte. Avec son ‘Video Authentificator’, le géant américain affirme désormais pouvoir fournir en temps réel ‘un pourcentage de confiance’ pour chaque image, qui se traduira par la probabilité que le média a été artificiellement manipulé, ou non.

Comment cela fonctionne? Comme on peut le lire sur le blog de l’entreprise, l’outil détecte les mélanges des photos et des éléments subtils (comme les décolorations d’images ou les différents niveaux de gris) imperceptibles à l’œil nu. Il repère donc les modifications de luminosité, de couleurs ou encore, des ajouts effectués sur une photo.

Defending Democracy           

Ce projet s’inscrit dans le cadre du  Defending Democracy mis en place pour défendre et garantir le vote démocratique dans le cadre des élections américaines. L’outil a été mis au point par le département Research de Microsoft, avec l’aide du Ethics and Effects in Engineering and Research Committee, et son équipe spécialisée dans l’IA.  

Cet  outil se destine aux médias chargés de relayer les informations à leurs lecteurs. Et si on ne peut garantir à 100% l’efficacité de ce logiciel, Microsoft entend bien le perfectionner : ‘nous devons être en mesure de pouvoir détecter toutes les deepfakes, même si le logiciel que nous proposons à ce stade-ci connaît aussi un petit taux d’échec. À plus long terme, nous  souhaiterions développer des méthodes encore plus  fiables pour garantir l’authenticité des contenus qui circulent’ a déclaré l’équipe de Microsoft. 

Microsoft espère que ce système d’authenticité finira par établir une relation de confiance entre les médias et le public et qu’il contribuera au  Trusted News Initiative établi dans le cadre du Projet Origin (mis sur pied par la BBC, CBC-Radio Canada, Microsoft et le New York Times) pour lutter contre la désinformation.