Principaux renseignements
- L’utilisation par Israël de l’IA pour sélectionner ses cibles dans ses conflits avec Gaza et l’Iran soulève de sérieuses inquiétudes quant à l’absence de contrôle humain.
- Des études ont montré qu’Israël utilise « Habsora », un système d’IA capable de sélectionner rapidement des cibles pour des frappes aériennes.
- L’assouplissement des règles d’engagement, associé aux frappes aériennes assistées par l’IA, a tragiquement conduit à un mépris des pertes civiles.
Le récent déploiement par Israël de l’intelligence artificielle dans son conflit avec l’Iran a suscité des inquiétudes parmi les experts quant à l’absence de contrôle humain dans la sélection des cibles. Suite à l’utilisation de l’IA pour choisir les cibles à bombarder à Gaza, les analystes établissent des parallèles entre les deux conflits, soulignant les dangers potentiels des systèmes d’armes autonomes. C’est ce qu’écrit Asian Times.
Erreur d’identification des cibles
Un analyste a cité le bombardement du « parc de la police » à Téhéran comme exemple d’erreur d’identification des cibles par l’IA. Ce parc, qui n’a aucun lien avec les forces de l’ordre, a probablement été sélectionné en raison de sa proximité avec des bâtiments gouvernementaux, ce qui démontre l’absence d’intervention humaine pour vérifier la légitimité de la cible.
Cette approche, qualifiée de « bêta mortel » par un journaliste spécialisé dans les technologies, considère le conflit à Gaza comme un prototype et le conflit iranien comme le lancement d’un produit potentiellement dangereux. Ces tests en conditions réelles soulèvent des questions éthiques quant à l’utilisation de vies humaines comme points de données dans le développement de technologies mortelles.
Des enquêtes précédentes ont révélé l’utilisation par Israël de « Habsora », un système d’IA capable de sélectionner rapidement des cibles pour des frappes aériennes. Les détracteurs affirment que cette technologie, associée à un assouplissement des règles d’engagement pendant le conflit à Gaza, a conduit à un mépris des pertes civiles.
Règles d’engagement assouplies
L’armée israélienne a accordé aux officiers de rang intermédiaire une large autorité pour ordonner des frappes aériennes, même si cela comportait un risque important pour la vie des civils. Dans certains cas, les commandants supérieurs ont approuvé des frappes susceptibles de tuer des centaines de civils, donnant la priorité aux cibles de grande valeur plutôt qu’à la sécurité des civils.
Les conséquences dévastatrices des frappes aériennes assistées par l’IA ont été mises en évidence lors du bombardement du camp de réfugiés de Jabalia, qui a causé la mort de nombreux civils, dont des enfants.
L’IA dans les opérations américaines
L’armée américaine utilise également une IA avancée dans ses opérations en Iran, en recourant au système intelligent Maven de Palantir, qui intègre le modèle linguistique Claude AI d’Anthropic.
Les experts soulignent la nécessité d’un contrôle humain dans l’application de l’IA à la guerre, insistant sur l’importance de vérifier les résultats de ces systèmes lorsque des vies sont en jeu.
Réglementations internationales
Le risque que l’IA aggrave les pertes civiles est une préoccupation croissante, comme en témoignent les rapports faisant état de massacres et de frappes à double impact dans le conflit iranien. Si le rôle précis de l’IA dans ces incidents reste flou, les implications éthiques de l’utilisation de systèmes d’armes autonomes sont indéniables.
Les discussions en cours lors d’une conférence parrainée par l’ONU à Genève visent à traiter les risques posés par les robots tueurs et à établir des réglementations internationales pour leur développement et leur déploiement. Malgré les affirmations selon lesquelles l’IA peut réduire le nombre de victimes civiles, les experts soutiennent qu’il n’existe aucune preuve à l’appui de cette affirmation et que le contraire pourrait être vrai. (fc)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

