Web Analytics

Aussi impressionnante soit-elle, l’IA générative a un problème majeur : elle coûte plus cher qu’elle ne rapporte

Aussi impressionnante soit-elle, l’IA générative a un problème majeur : elle coûte plus cher qu’elle ne rapporte
OpenAI CEO, Sam Altman – Chris J. Ratcliffe/Bloomberg via Getty Images

Tout le monde parle de l’IA générative dont ChatGPT et Bard sont les fers de lance. Ce dont on ne vous parle pas, c’est de leur coût. Et c’est le plus grand obstacle à cette technologie.

Pourquoi est-ce important ?

Les entreprises de la Silicon Valley ont réussi à installer dans notre quotidien la dernière grande révolution technologique, en nous proposant gratuitement des outils comme la recherche en ligne, les réseaux sociaux ou l'envoi d'emails. Car elles sont parvenues à générer beaucoup d'argent grâce à la publicité personnalisée. La publicité arrivera probablement bientôt dans les chatbots, mais certains spécialistes estiment qu'elle ne sera pas suffisante pour compenser les coûts.

Dans l’actu : à chaque fois que vous utilisez un chatbot, son développeur perd de l’argent.

  • « L’IA générative a un problème », écrit le Washington Post dans une longue analyse très intéressante sur un problème peu évoqué.
  • L’IA générative, popularisée par ChatGPT ou encore Bard, nécessite des quantités vertigineuses de puissance de calcul, effectuées par des super-ordinateurs assoiffés de puces informatiques spécialisées, appelées GPU.
  • Seules les plus grandes entreprises au monde peuvent se permettre d’en acheter massivement. Des mastodontes comme Microsoft et Google ont su réagir rapidement à l’arrivée de l’IA générative, tout d’abord parce que ces entreprises possèdent d’énormes liquidités.
  • Tout profit pour Nvidia, un constructeur de puces, qui est parvenu en quelques mois à se glisser dans le club très fermé de la Big Tech, avec une capitalisation boursière qui dépasse désormais les 1.000 milliards de dollars.
  • « Les modèles déployés en ce moment, aussi impressionnants qu’ils paraissent, ne sont vraiment pas les meilleurs modèles disponibles », a déclaré Tom Goldstein, professeur d’informatique à l’Université du Maryland, au quotidien américain. « En conséquence, les modèles que vous voyez actuellement ont beaucoup de faiblesses. »
  • Même les utilisateurs qui payent 20 dollars pour accéder à la version pro de ChatGPT ne permettent pas de nourrir la bête. C’est d’ailleurs pourquoi ces utilisateurs sont limités à 25 messages toutes les trois heures et qu’ils doivent attendre un certain temps avant d’obtenir une réponse.
  • Ce n’est pas un hasard non plus si Google n’a pas encore intégré de chatbot à son moteur de recherche. Et ce n’est pas un hasard non plus si le géant technologique n’a pas intégré son langage le plus performant lors de la présentation de Bard.
  • Dylan Patel, analyste en chef de la société de recherche sur les semi-conducteurs SemiAnalysis, a estimé qu’une seule conversation avec ChatGPT pouvait coûter jusqu’à 1.000 fois plus qu’une simple recherche sur Google. Même un mastodonte pareil ne peut pas se le permettre.

Concrètement : ce que coûte chaque jour ChatGPT à OpenAI.

  • Il n’y a pas de chiffres officiels. Sam Altman, le patron d’OpenAI, entreprise à l’origine de ChatGPT, a parlé de quelques « cents » pour chaque requête. Cela peut paraitre peu sauf si vous le multipliez par 10 millions d’utilisateurs quotidiens.
  • En février, pas très loin du lancement, SemiAnalysis a évalué que ChatGPT coûtait à OpenAI environ 700.000 dollars par jour en frais de calcul uniquement.
  • Maintenant, multipliez ces frais pour les 100 millions d’utilisateurs quotidiens qui font une requête sur le moteur de recherche Bing, de Microsoft ou les plus d’1 milliard d’internautes qui utilisent le moteur de recherche de Google.

Conclusion : il faudra peut-être plus de temps qu’on ne le pense.

  • Ce coût devient vraiment problématique quand, en plus, votre IA générative fait des erreurs répétées. Malgré les belles prouesses de l’IA, certains spécialistes estiment que ces erreurs sont difficilement corrigibles.
  • Ensuite, pour les plus petits acteurs, ce coût est réellement un frein. Les startups qui voudront se servir de l’IA devront passer par des langages plus démocratiques et open sources, mais forcément moins performants. Le développement de l’IA générative ne sera peut-être pas si rapide qu’on ne le pense.
Plus d'articles Premium
Plus