Selon une nouvelle étude, l’adoption rapide de l’IA se fait au détriment de la sécurité et du contrôle


Principaux renseignements

  • Les organisations misent de plus en plus et de plus en plus vite sur l’IA, mais le font souvent sans accorder suffisamment d’attention à la sécurité et à la réglementation.
  • 67 pour cent des personnes interrogées se sentent poussées à approuver des applications d’IA malgré des préoccupations en matière de sécurité.
  • Le manque de cohérence des politiques, le flou des responsabilités et l’incohérence des réglementations au sein des organisations augmentent le risque d’une mise en œuvre de l’IA menée sous la pression.

Partout dans le monde, les organisations misent de plus en plus et de plus en plus vite sur l’intelligence artificielle (IA). Mais elles le font souvent sans accorder suffisamment d’attention à la sécurité et à la réglementation. C’est ce qui ressort d’une nouvelle étude menée par la société de sécurité IA TrendAI. Pour cette étude, l’entreprise a interrogé 3 700 dirigeants d’entreprise et professionnels de l’informatique.

Pression pour mettre en œuvre l’IA

67 pour cent des personnes interrogées se sentent poussées à approuver des applications d’IA, malgré les préoccupations existantes en matière de sécurité. Une personne sur sept a même qualifié ces préoccupations de « extrêmes », mais les a néanmoins ignorées afin de rester compétitive et de répondre aux attentes internes.

« Les organisations sont tout à fait conscientes des risques, mais ne disposent pas des structures adéquates pour les maîtriser », explique Rachel Jin, directrice de la plateforme et des affaires chez Trend AI. « Lorsque la mise en œuvre est motivée par la pression concurrentielle plutôt que par une structure de gouvernance mature, on aboutit à une situation où l’IA est intégrée dans des systèmes critiques sans les contrôles nécessaires pour la gérer en toute sécurité. »

Responsabilités floues

Des politiques incohérentes, des responsabilités floues et une réglementation incohérente au sein des organisations augmentent le risque d’une mise en œuvre de l’IA menée sous la pression. Les équipes de sécurité doivent souvent réagir a posteriori aux décisions prises en haut lieu. Cela conduit à des solutions temporaires et à une augmentation de ce qu’on appelle la « shadow AI », c’est-à-dire des outils non approuvés utilisés à l’insu de l’organisation.

Une étude récente de TrendAI sur les cybercriminels montre comment les attaquants utilisent déjà l’IA pour automatiser la reconnaissance, accélérer les campagnes de phishing et abaisser le seuil de la cybercriminalité. Cela augmente à la fois la vitesse et l’ampleur des attaques.

Mécanismes de contrôle

57 pour cent des organisations admettent également que l’IA évolue plus vite qu’elles ne peuvent la sécuriser. Parallèlement, 64 pour cent d’entre elles ont peu confiance en leur connaissance des cadres réglementaires relatifs à l’IA.

En matière de politique d’IA, les entreprises ont encore beaucoup de travail à accomplir. Seules 38 pour cent des organisations disposent d’une politique d’IA pleinement élaborée. De nombreuses entreprises en sont encore à la phase de conception, tandis que 41 pour cent indiquent que le flou législatif constitue un obstacle majeur à l’élaboration d’une telle politique.

Systèmes d’IA autonomes

La confiance reste limitée, en particulier vis-à-vis des systèmes d’IA les plus avancés et autonomes. Moins de la moitié (48 pour cent) des personnes interrogées pensent que ces systèmes apporteront une valeur ajoutée significative à la cybersécurité à court terme.

Selon le rapport, les principaux risques concernent l’accès aux données et leur contrôle. 44 pour cent des personnes interrogées considèrent comme un risque le fait que l’IA puisse accéder à des données sensibles. Plus d’un tiers (36 pour cent) met également en garde contre le fait que des invites malveillantes peuvent compromettre la sécurité, tandis qu’une personne sur trois (33 pour cent) souligne l’élargissement de la surface d’attaque pour les cybercriminels.

Il est frappant de constater que près d’un tiers (31 pour cent) admet ne pas avoir une visibilité ou un contrôle suffisants sur les systèmes d’IA. Ce manque de transparence rend difficile toute intervention en cas de problème.

Besoin croissant de mécanismes de contrôle

40 pour cent des organisations sont favorables à la mise en place d’un « kill switch » pour désactiver les systèmes d’IA en cas de dysfonctionnement ou d’abus. Pourtant, la moitié des personnes interrogées reste sceptique à ce sujet. Un problème plus profond selon TrendAI. Les organisations évoluent vers une IA autonome sans s’accorder sur la manière de garder le contrôle là où c’est le plus important.

« L’IA agentique place les organisations dans une nouvelle catégorie de risques », a ajouté Rachel Jin. « Notre étude montre que les préoccupations sont déjà évidentes, qu’il s’agisse de l’exposition de données sensibles ou de la perte de contrôle. Sans visibilité ni contrôle, les organisations mettent en place des systèmes qu’elles ne comprennent pas ou ne maîtrisent pas pleinement, et ce risque ne fera que s’accroître si des mesures ne sont pas prises. »

Suivez également Business AM sur Google Actualités

Si vous souhaitez accéder à tous les articles, abonnez-vous ici !

Plus