L’IA peut créer des pandémies pouvant être utilisées comme armes biologiques, avertissent les experts


Principaux renseignements

  • La technologie IA peut être détournée pour développer des armes biologiques dangereuses.
  • Les experts craignent que l’intelligence artificielle (IA) aide des groupes extrémistes à concevoir de nouveaux agents pathogènes à haut taux de mortalité.
  • Une meilleure coopération mondiale et des mesures de sécurité actualisées sont essentielles pour limiter les risques liés à l’IA dans le développement d’armes biologiques.

Les experts en technologie expriment leur vive inquiétude quant à l’utilisation abusive potentielle de l’intelligence artificielle (IA) pour développer des armes biologiques susceptibles de provoquer des pandémies dévastatrices.

Scénario hypothétique

Un scénario hypothétique récent, étudié par un groupe d’experts de renom dans le domaine de la technologie et de la lutte contre le terrorisme, illustre cette possibilité alarmante. Ils ont imaginé qu’un groupe extrémiste utiliserait l’IA pour créer une nouvelle souche d’entérovirus, qui provoquerait une pandémie mondiale causant la mort de millions de personnes. Bien que cela semble relever de la science-fiction, ce scénario est considéré comme de plus en plus plausible dans un avenir proche.

Les experts ont conclu que la pandémie fictive, avec un nombre prévu de 850 millions de cas et 60 millions de décès, constituait une menace « très grave » nécessitant une action immédiate.

Potentiel de nuisance

Si l’IA promet des avancées révolutionnaires dans le domaine médical en accélérant le développement de médicaments et de vaccins, elle comporte également un potentiel de nuisance effrayant. Les experts avertissent que le développement rapide de l’IA réduit les obstacles à la création d’armes biologiques par des acteurs malveillants.

Ce danger est réel. Selon les experts, les outils d’IA existants et émergents pourraient être utilisés pour développer de nouveaux agents pathogènes susceptibles de provoquer une pandémie.

Mesures de sécurité

L’urgence est accrue par le fait que les mesures de sécurité actuelles sont insuffisantes pour faire face efficacement aux menaces liées à l’IA. Les experts soulignent la nécessité d’une meilleure coopération mondiale pour évaluer la menace émergente et y répondre de manière adéquate. Ils préconisent une approche équilibrée qui maîtrise les risques liés à l’IA, tout en préservant les avantages potentiels de cette technologie et en n’entrave pas inutilement l’innovation scientifique. (uv)

Suivez également Business AM sur Google Actualités

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus