Principaux renseignements
- La prochaine génération de puces IA de Nvidia offrira une puissance de calcul cinq fois supérieure, ce qui permettra aux chatbots et aux applications d’IA de fonctionner plus rapidement.
- La plateforme Vera Rubin permet d’interconnecter des « pods » de plus de 1 000 puces pour décupler l’efficacité de la génération de jetons.
- L’acquisition par Nvidia de la technologie Groq signale son engagement à rester à la pointe de l’innovation en matière d’IA.
Les puces d’IA de nouvelle génération de Nvidia sont actuellement en pleine production et promettent une multiplication par cinq de la puissance de traitement de l’intelligence artificielle par rapport à leurs prédécesseurs, permettant des performances plus rapides et plus efficaces des chatbots et des applications d’IA.
Jensen Huang, PDG de Nvidia, a dévoilé ces avancées lors du Consumer Electronics Show de Las Vegas, en mettant en avant la future plateforme Vera Rubin. Cette plateforme comprend six puces Nvidia et affiche des capacités impressionnantes, notamment un serveur phare avec 72 unités graphiques et 36 processeurs centraux.
Améliorations des performances
Huang a démontré comment les puces peuvent être interconnectées en « pods » contenant plus de 1 000 puces Rubin, améliorant de manière significative l’efficacité de la génération de jetons – les éléments fondamentaux des systèmes d’IA – par un facteur de dix. Cette amélioration remarquable des performances est attribuée à un type de données propriétaire dont Nvidia espère qu’il deviendra une norme industrielle.
Si Nvidia domine actuellement le marché de l’entraînement à l’IA, la concurrence s’intensifie de la part de rivaux comme Advanced Micro Devices et même de clients tels que Google d’Alphabet. Huang a souligné l’efficacité des nouvelles puces à fournir des modèles d’IA formés à des millions d’utilisateurs par le biais de chatbots et d’autres technologies. Il a également mis en avant la « mémoire contextuelle », une nouvelle couche de stockage conçue pour accélérer les temps de réponse des chatbots en cas de requêtes et de conversations complexes.
Avancées en matière de réseautage
Nvidia a également présenté une nouvelle génération de commutateurs réseau dotés d’une optique copackagée, une technologie cruciale pour connecter des milliers de machines dans un système unifié, en concurrence avec les offres de Broadcom et de Cisco Systems. CoreWeave devrait figurer parmi les premiers utilisateurs des systèmes Vera Rubin, suivis par Microsoft, Oracle, Amazon et Alphabet.
Parmi les autres annonces, Huang a présenté un nouveau logiciel conçu pour aider les voitures autonomes à prendre des décisions, en laissant une trace transparente que les ingénieurs pourront analyser. Il a également dévoilé la version élargie du logiciel Alpamayo, ainsi que les données d’entraînement utilisées, ce qui permettra aux constructeurs automobiles de procéder à des évaluations indépendantes et de renforcer la confiance dans le développement du modèle.
Expansion
La récente acquisition par Nvidia de talents et de la technologie des puces de la startup Groq illustre son engagement à rester en tête dans le paysage de l’IA. Cette opération permet d’intégrer des cadres qui ont joué un rôle déterminant dans le développement des puces d’IA de Google, ce qui remet directement en question la position dominante de Nvidia.
Huang a assuré aux analystes que l’accord avec Groq n’aurait pas d’incidence sur les activités principales de Nvidia, mais qu’il pourrait déboucher sur de nouvelles offres de produits qui viendraient étoffer son portefeuille.
Nvidia est impatiente de présenter les performances supérieures de ses dernières puces par rapport aux modèles plus anciens, comme le H200, dont l’exportation vers la Chine a été autorisée. La demande pour le H200 reste forte en Chine, ce qui inquiète les décideurs politiques américains. Nvidia attend actuellement les autorisations des États-Unis et d’autres gouvernements pour expédier ces puces en Chine. (fc)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

