Apple, Samsung ou encore Amazon : pourquoi certaines entreprises interdisent l’utilisation de ChatGPT ?

Depuis son lancement public, l’IA générative d’OpenAI n’a cessé de faire parler d’elle. Utile, facile d’utilisation, intéressante au quotidien, ChatGPT a marqué un tournant, notamment au bureau. Pourtant, certaines entreprises rechignent à ce que leurs employés l’exploitent.

L’outil d’OpenAI possède de sérieux arguments pour alléger certains fardeaux de la vie professionnelle. Il peut nous aider à rédiger des mails, donner des idées, corriger notre orthographe ou notre grammaire et même le ton de nos écrits, en plus de vulgariser des notions et concepts complexes. Le tout gratuitement – du moins, dans sa version de base. Difficile de ne pas succomber à la tentation.

  • Ils sont d’ailleurs nombreux à l’utiliser au quotidien dans leur travail pour toutes ces utilisations évoquées, mais pour bien d’autres encore.
  • Dans certains cas, le recours à ChatGPT est connu de la hiérarchie et accepté, mais dans d’autres, ce n’est pas le cas. Pire, c’est défendu.

Des raisons multiples

Les raisons à ce refus d’utiliser une IA générative au travail peuvent être multiples. L’une d’entre elles est assez logique, les entreprises ne veulent tout simplement pas payer des employés humains pour qu’un logiciel fasse leur travail à leur place – même si ChatGPT est plutôt considéré comme un assistant.

Une autre explication est tout simplement un manque de compréhension de ce qu’est l’IA générative et ce qu’elle peut apporter au bureau.

Mais la principale est sans doute la crainte que des informations confidentielles soient partagées à une plateforme qui appartient à une autre entreprise. Ce qui constitue une violation potentielle de sécurité, mais aussi de la confidentialité.

Une utilisation inconnue des informations partagées

Plusieurs grandes entreprises ont ainsi réprimé son utilisation, de peur que des informations sensibles se retrouvent dans les mauvaises mains par le biais de cet outil.

  • C’est notamment le cas de Samsung qui a interdit l’utilisation de ChatGPT après avoir pris connaissance qu’un ingénieur avait copié-collé un code source sensible sur la plateforme.
    • L’IA générative d’OpenAI peut en effet s’avérer utile pour repérer des erreurs dans un code informatique et les corriger.
  • Même son de cloche du côté d’Amazon qui a exhorté ses développeurs à utiliser sa propre IA interne, CodeWhisperer, pour obtenir des conseils de codage ou de raccourcis.
  • Apple ne fait pas exception. La firme de Cupertino a restreint l’utilisation de ChatGPT pour certains employés, dans le but d’éviter l’exposition d’informations confidentielles.

Et les grandes entreprises ne sont pas les seules à craindre l’exploitation possible des données partagées avec ChatGPT, c’est notamment le cas d’hôpitaux et de banques, dont Goldman Sachs, Citigroup, Deutsche Bank ou encore JP Morgan – malgré les intérêts que peut représenter l’IA dans ces deux secteurs.

  • Là encore, c’est la question de la confidentialité qui pose problème, tant pour les données des patients que des clients.
  • L’utilisation des informations stockées sur les serveurs d’OpenAI est pointée du doigt, mais pas que.
  • La sécurité – ou plutôt les lacunes en la matière – est l’autre grand argument pour réprimer l’utilisation de ChatGPT dans le cadre de traitement d’informations sensibles.
    • En mars derniers, OpenAI a été contraint de fermer temporairement ChatGPT, en raison d’un bug qui permettait de connaitre les titres des historiques de conversations des utilisateurs.
    • S’il n’était pas question d’accéder directement aux contenus, cet épisode n’a fait que souligner les défauts de sécurité de l’outil.  

Multiplication des IA

Le manque d’enthousiasme des grandes entreprises et secteurs qui manipulent des informations sensibles vis-à-vis de ChatGPT ou Bard, l’IA générative de Google, est finalement compréhensible. Par ailleurs, cela ne veut pas dire qu’ils sont opposés à l’utilisation de cette technologie en leur sein, mais plutôt qu’ils préféreront avoir recours à un outil qu’ils ont eux-mêmes développé ou dans lequel ils ont confiance.

Plus