Web Analytics

Shadow AI : Les employés se tournent vers des outils IA personnels malgré les inquiétudes de l’organisation


Principaux renseignements

  • La moitié des employés interrogés utilisent des applications d’IA qui n’ont pas été autorisées par l’organisation.
  • Les employés continueraient à utiliser l’IA fantôme même si elle était interdite, ce qui suggère la nécessité de stratégies d’IA plus complètes.
  • De nombreux employés n’ont pas reçu la formation nécessaire pour atténuer les risques associés à l’utilisation d’outils non autorisés.

Une nouvelle étude menée par Software AG, un groupe allemand spécialisé dans les solutions logicielles pour les entreprises, révèle qu’une grande partie des employés utilisent des outils d’IA sans l’autorisation de l’organisation. Ce phénomène est appelé « Shadow AI » et est particulièrement répandu parmi les travailleurs du savoir, la moitié des 6 000 participants interrogés ayant déclaré s’appuyer sur des applications d’IA. L’étude souligne l’importance croissante de l’IA sur le lieu de travail, puisque 75 pour cent des travailleurs du savoir l’utilisent déjà pour gagner du temps, simplifier les processus de travail et améliorer la productivité.

L’étude met en évidence une tendance préoccupante : la moitié des employés interrogés ont indiqué qu’ils continueraient à utiliser l’IA fantôme même si leur entreprise l’interdisait complètement. Il est donc nécessaire que les entreprises développent des stratégies d’IA plus robustes et plus complètes afin d’atténuer les risques potentiels liés à l’utilisation d’outils non autorisés. Les experts soulignent que l’adoption généralisée de l’IA nécessite un examen attentif de la cybersécurité, de la gouvernance des données et de la conformité réglementaire.

Les raisons de la préférence

L’étude se penche sur les raisons qui expliquent la préférence des employés pour les outils d’IA personnels. Une majorité d’entre eux ont cité un désir d’indépendance, tandis qu’un nombre considérable a souligné le manque d’outils officiels adéquats fournis par leurs départements informatiques. Cette constatation souligne l’importance d’aligner les offres organisationnelles sur les besoins et les préférences des employés.

Bien qu’ils soient conscients des risques potentiels associés à l’IA fantôme, tels que les menaces de cybersécurité, les fuites de données et les informations inexactes, de nombreux employés ne prennent pas de mesures de précaution suffisantes. Alors que les utilisateurs réguliers de l’IA semblent plus aptes à atténuer ces risques, l’étude souligne la nécessité de mettre en place des programmes de formation complets afin de doter tous les employés des connaissances et des compétences nécessaires pour gérer l’IA de manière responsable.

Conclusion

Le rapport conclut que l’IA fantôme est un phénomène omniprésent qui requiert une attention particulière. Les organisations doivent relever ce défi de manière proactive en établissant des cadres transparents pour l’utilisation de l’IA, en comprenant les préférences des employés en matière d’outils et en fournissant une formation adéquate pour garantir une mise en œuvre responsable et sécurisée de l’IA au sein de leurs opérations.

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus