Utilisation criminelle, diffusion de fausses informations : les États-Unis veulent mettre le holà à l’IA générative

Depuis que ChatGPT a été rendu public, une révolution s’est mise en marche. Et si la multiplication des IA génératives a eu du bon à de nombreux niveaux, elle a aussi des côtés sombres et c’est justement ce qui inquiète les États-Unis.

L’actualité : le département du Commerce américain demande l’avis du public sur de potentielles mesures de responsabilités pour les IA génératives telles que ChatGPT.

  • Les autorités politiques américaines s’inquiètent de l’impact qu’elles pourraient avoir sur la sécurité nationale et l’éducation.
  • Elles cherchent à savoir si des mesures permettraient de garantir « que les systèmes d’IA sont légaux, efficaces, éthiques, sûrs et dignes de confiance ».
    • On sait depuis longtemps maintenant que les IA peuvent présenter des biais en raison des bases de données sur lesquelles elles sont formées.
  • « Des systèmes d’IA responsables pourraient apporter d’énormes avantages, mais seulement si nous nous attaquons à leurs conséquences et préjudices potentiels. Pour que ces systèmes atteignent leur plein potentiel, les entreprises et les consommateurs doivent pouvoir leur faire confiance », a déclaré Alan Davidson, administrateur de la National Telecommunications and Information Administration (NTIA).

Un rapport non contraignant

À terme : les commentaires sont ouverts durant 60 jours. Au terme, la NTIA rédigera un rapport sur base des avis reçus afin d’aider les décideurs politiques américains à aborder la question des IA génératives.

  • À l’administration Biden ensuite de prendre en compte ou non ces conseils pour « assurer une approche cohérente et complète du gouvernement fédéral à l’égard des risques et des opportunités liés à l’IA ».

Contexte : le fait que ChatGPT ait atteint 100 millions d’utilisateurs le plus rapidement que n’importe quelle autre application grand public de l’histoire est ce qui inquiète le plus les politiques.

  • Des représentants de l’industrie technologie, dont Elon Musk et Steve Wozniak (co-fondateur d’Apple), et du gouvernement, ont exprimé leur inquiétude quant aux dommages potentiels que peut avoir l’IA.
  • Les chatbots tels que ChatGPT peuvent en effet être utilisés pour commettre des crimes – création de campagnes de phishing ou de virus –, et diffuser de fausses informations.
    • Les IA génératives peuvent présenter des erreurs dans leurs réponses, sans que cela soit dû à une utilisation malveillante, comme ce fut le cas avec Bard de Google, mais aussi Bing IA de Microsoft. Mais ChatGPT a également ses défauts.

Une demande croissante de réglementation

À noter : les États-Unis ne sont pas les seuls à se demander s’il faut encadrer ou non les intelligences artificielles.

  • Plusieurs pays s’inquiètent en effet de cette technologie en plein boom. Outre les utilisations criminelles possibles, ils s’interrogent sur le respect de la vie privée de leurs utilisateurs.
    • L’Italie a été le premier pays à interdire ChatGPT pour violation du RGPD. La France pourrait suivre son exemple.
  • La Chine a annoncé la mise en place prochaine de règles visant à encadrer les chatbots dans le pays.
Plus