Google s’attaque à la domination de Nvidia dans l’IA avec son supercalculateur

Les efforts de Google en matière d’intelligence artificielle ne se limitent pas à faire la guerre à ChatGPT. Ils vont beaucoup plus loin et l’entreprise est d’ailleurs un acteur sérieux dans ce domaine, bien qu’elle cumule un certain retard.

L’actualité : Google a dévoilé plus de détails concernant TPU v4, la quatrième génération de ses supercalculateurs qu’il utilise pour former ses modèles d’intelligence artificielle.

Le détail : ses systèmes sont jusqu’à 1,7 fois plus rapide et jusqu’à 1,9 fois moins énergivore que les puces comparables de Nvidia, l’actuel leader sur le marché de la formation et du déploiement de modèles d’IA. Nvidia représente 90 % des parts du marché.

  • Le supercalculateur de Google repose sur plus de 4.000 TPU associés à des composants personnalisés conçus pour exécuter et former des modèles d’IA.
  • Si le géant américain partage des détails à son sujet seulement maintenant, le système est en fonction depuis 2020. Il a d’ailleurs servi à former le modèle PaLM de Google, un concurrent au modèle GPT d’OpenAI.

« Les performances, l’évolutivité et la disponibilité des supercalculateurs TPU v4 en font des chevaux de bataille pour les grands modèles de langage »

Les chercheurs de Google.

À noter : Google est parvenu à la conclusion que son système était plus rapide et plus efficace que ceux de Nvidia sur base d’une comparaison avec la puce A100 de son concurrent, celle utilisée pour former ChatGPT par exemple, et non la plus récente, à savoir la H100.

Rattraper son retard

Google conçoit et déploie des puces d’IA appelées Tensor Processing Units (TPU) depuis 2016. Et bien que ses équipes aient développé certaines des avancées les plus importantes dans le domaine de l’IA, certains reprochent à Google de cumuler du retard en termes de commercialisation de ses inventions.

  • La popularisation des chatbots tels que ChatGPT n’a d’ailleurs fait que renforcer cette idée.
    • Et les tentatives de Google de prendre le train en marche avec Bard n’ont pas eu les effets escomptés, tant l’expérience proposée est en deçà de celle de l’IA générative d’OpenIA.
  • Le géant américain doit désormais mettre les bouchées doubles pour ne pas perdre l’avance qu’il avait. C’est sans doute pourquoi il a partagé des détails sur TPU v4.
  • D’autant plus que les puces destinées à former les modèles d’IA représentent une opportunité importante à l’heure où les chatbots sont à la mode et que les services dans le cloud prennent de l’ampleur.
  • Si Google veut avoir une part du gâteau, il doit réussir à convaincre les entreprises que ses supercalculateurs sont meilleurs.

Si ChatGPT a été formé sur le modèle A100 de Nvidia, Google a révélé que Midjourney avait été entrainé sur ses puces TPU.

Plus