Nvidia présente une amélioration de sa puce à la base de l’IA générative de ChatGPT : pour porter l’image et le son dans une autre dimension

La nouvelle puce H200 a été spécialement pensée pour l’entraînement et le déploiement des modèles d’intelligence artificielle.

Dans l’actualité : ce lundi, le géant des processeurs informatiques Nvidia a révélé son nouveau bijou : la puce H200, largement conçue pour surfer sur l’engouement pour l’IA dans l’ensemble du secteur technologique.

Deux fois plus rapide

  • La H200 est une amélioration de la puce H100, relève CNBC. Celle-là même qui a été utilisée par OpenAI pour entraîner son modèle de langage le plus avancé à ce jour, le GPT-4. Des puces en nombre limité, et dont les grands acteurs de la tech – publics comme privés – s’arrachent les exemplaires disponibles.
  • Une manne financière dont les concepteurs de microprocesseurs – devenus de véritables ressources stratégiques – ne vont pas se priver. D’autant qu’il faut des milliers de puces de type H100 qui travaillent ensemble pour entraîner une IA. Et que chacun de ces processeurs coûte entre 25.000 et 40.000 dollars, rappelle le média économique américain.
  • Dans ce contexte de course à l’IA la plus performante, une nouvelle puce plus efficace et largement conçue pour cette tâche part avec le vent en poupe. Du point de vue technique, la H200 compte 141 Go de mémoire de nouvelle génération « HBM3 ».
  • De quoi effectuer plus efficacement « l’inférence », soit le recoupement de grandes quantités de données pour générer du contenu pertinent. En particulier des images, voire des sons, et non plus seulement du texte. Le genre de prouesse technique qui sert d’argument principal aux dernières versions de ChatGPT, pour ne citer qu’une égérie de cet engouement pour l’IA. Nvidia a déclaré que le H200 générera des résultats presque deux fois plus rapidement que son ancêtre. Mais les deux puces resteront compatibles.

Une entreprise qui se porte bien

Le géant des puces se porte bien. Nvidia est récemment entrée dans le club très fermé des entreprises à 1.000 milliards de dollars. Ses ventes globales ont grimpé de 171 % sur une base annuelle, selon des résultats publiés en août dernier, et son bénéfice net atteignait 6,19 milliards de dollars.

  • La course est lancée toutefois. Nul doute que les fabricants de puces vont rivaliser de modèles de plus en plus performants pour profiter de l’engouement pour l’IA. On dit traditionnellement que les puissances de calcul des puces doublent tous les deux ans.
  • La H2000 devrait sortir sur le marché pour le deuxième trimestre de 2024. Elle y sera déjà en concurrence avec le GPU MI300X, un processeur présenté en juin dernier par le grand rival AMD.
Plus