« Voici la puce la plus avancée pour l’intelligence artificielle » : quand AMD tente de renverser le géant Nvidia, avec l’aide d’Amazon

Avec sa nouvelle puce IA, AMD souhaite se positionner en tant que substitut aux produits IA de Nvidia. S’il y parvient, ce serait un nouveau marché à haut potentiel qui s’ouvrirait à lui. Et Amazon pourrait l’y aider.

L’actualité : le fabricant américain de semi-conducteurs AMD a dévoilé la MI300X, une nouvelle puce « la plus avancée pour l’intelligence artificielle ».

  • Un lancement limité est prévu plus tard cette année, avant une disponibilité plus large l’année prochaine.

Le détail : la puce MI300X a été élaborée spécifiquement pour les grands modèles de langage et autres modèles d’IA de pointe.

  • Elle peut utiliser jusqu’à 192 Go de mémoire, soit bien plus que la capacité de la H100, sa rivale signée Nvidia qui ne prend en charge que 80 Go de mémoire (GPU) dans ses versions SXM et PCIe.
    • Un argument qui pourrait faire mouche puisque les IA génératives reposent sur des modèles de langage qui nécessitent énormément de mémoires, du fait qu’ils exécutent beaucoup de calculs.
  • Avec une plus grande capacité de mémoire, la MI300X permettrait donc aux développeurs de bénéficier d’une grande puissance de calculs avec un nombre réduit de processeurs. C’est en tout cas l’argument avancé par Lisa Su, PDG d’AMD.
  • Le fabricant a déjà indiqué qu’un système comprenant huit puces MI300X, basé sur l’architecture Infinity, serait également proposé.

À noter : en parallèle, AMD a également présenté plusieurs nouveaux processeurs Ryzen Pro, dont une version spéciale IA. Ces derniers ne se destinent pas aux développeurs d’intelligence artificielle ni de modèle de langage, mais aux particuliers et aux PC grand public.

.

Objectif : renverser Nvidia 

Difficile de ne pas voir dans cette nouvelle puce une tentative d’AMD de se confronter à Nvidia, qui est sur le devant de la scène depuis plusieurs semaines déjà en raison de l’engouement généré par sa puce H100, plébiscitée par les développeurs d’IA générative et de modèles de langage.

  • Une popularité qui est à double tranchant puisque la puce H100 est difficile à se procurer, en raison d’une demande excessive.
  • Une occasion en or pour AMD et son processeur MI300X.
  • D’ailleurs, pour s’assurer une incursion réussie sur le marché des puces IA, le fabricant a corrigé son plus gros défaut par rapport à Nvidia – du point de vue des développeurs – avec ROCm.
    • Il s’agit d’un progiciel qui permet aux développeurs d’accéder aux principales fonctionnalités matérielles des puces, afin d’offrir plus de possibilités aux développeurs.

« Le marché de l’IA des centres de données est une vaste opportunité pour AMD. L’opportunité de marché est d’environ 30 milliards de dollars cette année et atteindra 150 milliards de dollars en 2027 »

Lisa Su, PDG d’AMD

Un intéressé qui pourrait faire la différence

Même si l’entreprise est parvenue à rejoindre le club très fermé des entreprises tech à plus de 1.000 milliards de dollars de valorisation, Nvidia pourrait avoir du souci à se faire.

  • Outre les caractéristiques de la MI300X, AMD semble avoir séduit un client de taille : Amazon.
  • Le géant de l’e-commerce envisage en effet d’adopter la nouvelle puce IA d’AMD pour ses activités Cloud, rapporte Reuters.
  • Si cela venait à se confirmer – Amazon n’a pour l’instant pris aucun engagement public –, cela pourrait véritablement aider AMD dans sa bataille contre Nvidia, car sans gros acteur de son côté, la bataille s’annonce tout de même difficile.
    • Malgré les promesses faites par AMD, Wall Street ne s’est en effet pas montré très enthousiaste à l’annonce du fabricant. La faute à l’absence de candidats sérieux pour l’adoption de la MI300X.

À noter : même si AMD n’a pas encore dévoilé le prix de sa MI300X, on peut imaginer que l’arrivée d’un nouveau challenger sur le secteur très spécifique des puces IA puisse faire pression sur les prix. De quoi faire baisser le prix de 30.000 $ de la puce H100 de Nvidia et ainsi, permettre une réduction des coûts des applications d’IA génératives.  

Plus