Principaux renseignements
- Nvidia réoriente stratégiquement ses efforts vers les processeurs (CPU) afin de prendre en charge les applications d’IA agentique, qui nécessitent une puissante capacité de traitement à usage général.
- En raison de la complexité croissante des flux de travail liés à l’IA agentique, les processeurs (CPU) sont essentiels pour des tâches telles que la coordination de plusieurs entités et la gestion d’énormes quantités de données.
- Les processeurs de Nvidia sont spécialement conçus pour optimiser le traitement des données et les performances en mode monothread.
L’essor de l’IA agentique, capable d’effectuer des tâches complexes et d’interagir avec le monde de manière innovante, entraîne une évolution significative dans le monde de l’informatique. Alors que les processeurs graphiques (GPU) de Nvidia ont longtemps été le moteur des avancées en matière d’IA, la complexité croissante des applications d’IA agentique met désormais l’accent sur les processeurs centraux (CPU).
Nvidia se concentre sur les processeurs
vidia s’apprête à dévoiler ses dernières innovations en matière de processeurs lors de sa conférence annuelle GTC, selon CNBC. Ces puces jouent un rôle crucial dans la mise en œuvre de flux de travail d’IA agentique. Dion Harris, responsable de l’infrastructure IA chez Nvidia, souligne que les CPU deviennent le goulot d’étranglement dans la mise à l’échelle des applications d’IA, ce qui représente une opportunité unique de croissance.
L’aventure de Nvidia sur le marché des CPU a débuté en 2021 avec le lancement de Grace, son premier CPU pour centres de données. La génération suivante, baptisée Vera, est actuellement en production. Ces deux puces sont généralement utilisées en complément des célèbres GPU de Nvidia.
Reorientation stratégique vers les processeurs
La demande explosive de GPU a propulsé Nvidia au rang de marque incontournable et de société cotée en bourse la plus valorisée au monde. Cependant, le récent accord pluriannuel conclu par Nvidia avec Meta, impliquant le déploiement à grande échelle de processeurs Grace, marque une réorientation stratégique visant à intégrer les processeurs comme composants essentiels de l’écosystème de l’IA.
Ce regain d’intérêt pour les CPU a une cause évidente. Les besoins des applications d’IA évoluent fondamentalement. Alors que les GPU excellent dans l’entraînement et l’exécution de modèles d’IA grâce à leurs milliers de cœurs spécialisés, les CPU sont mieux adaptés aux tâches générales requises par l’IA agentique. Ces agents impliquent souvent la coordination de multiples entités et le déplacement de vastes quantités de données, tâches pour lesquelles les CPU, avec leurs cœurs puissants, sont idéaux.
Défis liés à l’offre
Jensen Huang, PDG de Nvidia, a souligné la croissance exponentielle de la génération de jetons associée à l’IA agentique, mettant l’accent sur la nécessité d’accélérer les vitesses d’inférence. Il considère que le rapport performance/watt est crucial dans ce paysage en pleine évolution.
L’analyste Ben Bajarin décrit la situation comme une « crise d’approvisionnement silencieuse » sur le marché des processeurs. Les principaux fournisseurs, AMD et Intel, ont signalé des pénuries d’approvisionnement, avec des délais de livraison s’étendant jusqu’à six mois et des prix augmentant de plus de 10 pour cent.
Harris affirme que Nvidia est bien armé pour relever ces défis. La chaîne d’approvisionnement robuste de l’entreprise répond efficacement à la demande pour ses processeurs.
Philosophie de conception des processeurs chez Nvidia
Les processeurs de Nvidia sont conçus en mettant l’accent sur le traitement des données et les flux de travail d’IA agentique. Contrairement aux processeurs à usage plus général d’Intel et d’AMD, le processeur Grace de Nvidia dispose d’un nombre réduit de cœurs (72) optimisés pour alimenter ses GPU en données.
Harris explique que l’approche de Nvidia privilégie les performances monothread afin de garantir que les GPU coûteux ne restent pas inactifs.
Stratégie flexible
La décision de Nvidia d’adopter des processeurs autonomes intervient alors que des hyperscalers comme Amazon, Google et Microsoft développent leurs propres processeurs basés sur Arm pour les centres de données.
Nvidia a répondu à cette tendance en ouvrant sa technologie de réseau NVLink à des licences tierces, permettant ainsi une intégration transparente de processeurs issus de différentes architectures avec ses GPU.
Cette stratégie « indépendante de la plateforme » permet à Nvidia de rester compétitive quel que soit le paysage des processeurs. Comme le dit Bajarin, l’approche de Nvidia est « de A à Z », offrant une suite complète de produits pour répondre à diverses charges de travail d’IA. (uv)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici !

