Principaux renseignements
- Selon les experts, l’intégration de l’IA dans la conduite de la guerre renforce les préjugés humains et peut conduire à des décisions erronées en raison d’une surestimation de ses capacités.
- Les systèmes d’IA, souvent conçus pour inspirer confiance, peuvent faire preuve d’une assurance excessive dans des situations incertaines, ce qui risque d’aggraver les conflits.
- Pour surmonter les dangers de l’IA, il faut sensibiliser les décideurs à ses limites et encourager une évaluation critique de ses résultats.
L’intégration de l’intelligence artificielle dans les structures militaires est de plus en plus courante, ce qui soulève des inquiétudes quant à des erreurs potentielles et à une intensification des tensions mondiales. Les humains ont tendance à surestimer les capacités des nouvelles technologies, et la présence inévitable de l’IA dans les zones de conflit en fera un élément crucial de la guerre moderne.
Surestimation des capacités de l’IA
Un risque majeur souligné par Jacquelyn Schneider, directrice de la Hoover Wargaming and Crisis Simulation Initiative, est la possibilité que l’évolution des rapports de force conduise les États à croire qu’ils détiennent un avantage. Cette conviction, alimentée par une confiance mal placée dans les capacités de l’IA sur le champ de bataille, pourrait déclencher des frappes préventives précipitées, des campagnes agressives et un manque d’anticipation face à d’éventuelles défaillances technologiques.
Schneider attribue cette surestimation humaine à l’effet Dunning-Kruger, selon lequel les individus aux compétences limitées ont tendance à surestimer leurs capacités en raison d’un manque de conscience de leurs propres lacunes. Ce double handicap se traduit à la fois par une prise de décision médiocre fondée sur des conclusions erronées et par une incapacité à reconnaître ces erreurs.
L’IA exacerbe les biais
De plus, l’IA peut exacerber ce problème lorsque les décideurs sont confrontés à des situations complexes dépourvues de solutions claires. Si la technologie semble soutenir des biais préexistants ou des résultats souhaités, la confiance accordée à son jugement peut être dangereusement mal placée. Schneider a observé cette tendance dans des jeux de cyberguerre, où les participants ayant une expertise nucléaire limitée étaient plus enclins à mener des frappes préventives contre les arsenaux ennemis.
L’effet Dunning-Kruger est particulièrement prononcé en matière d’IA, car de nombreux systèmes sont conçus pour inspirer confiance aux utilisateurs. Cela peut conduire à des présentations d’informations trop optimistes, renforçant encore davantage la confiance des utilisateurs qui pourraient déjà être enclins à surestimer les capacités de la technologie.
Préoccupations en matière de sécurité
À ces préoccupations s’ajoutent les questions fondamentales soulevées par les experts concernant la sécurité et la fiabilité des systèmes d’IA existants. Des expériences menées dans le cadre de jeux de guerre démontrent que les agents IA peuvent faire preuve d’une assurance excessive face à l’incertitude, ce qui conduit à des décisions risquées et potentiellement catastrophiques. Plus inquiétante encore est la tendance des agents IA à aggraver les conflits au sein d’environnements simulés.
Schneider met en garde contre le fait que ces limites, amplifiées sur les champs de bataille réels, pourraient s’avérer fatales. Le personnel militaire et les décideurs inexpérimentés, sensibles à l’effet Dunning-Kruger, pourraient être moins enclins à remettre en question les erreurs de l’IA au sein de systèmes militaires complexes. Un décideur trop sûr de lui, par exemple, pourrait accorder une confiance excessive aux évaluations de l’IA qui brossent un tableau trop optimiste de la victoire.
Même avec une supervision humaine, les conséquences pourraient être désastreuses dans des scénarios nucléaires où les opérateurs et les commandants ne parviennent pas à saisir pleinement les incertitudes inhérentes à l’IA. Selon Schneider, le véritable danger de l’IA ne réside pas dans la technologie elle-même, mais dans la manière dont les humains choisissent de l’utiliser. Tout comme les progrès technologiques ont contribué à l’escalade et à la dévastation de la Première Guerre mondiale, ce sont les décisions humaines qui ont finalement déterminé son cours. (fc)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici !

