La tactique d’Amazon pour rattraper Google et Microsoft dans l’IA générative : les battre sur leur propre terrain

Amazon innove dans le domaine de l’intelligence artificielle générative en créant ses propres puces : Inferentia et Trainium. Ces puces sont conçues pour rivaliser avec les GPU Nvidia, qui sont actuellement les plus utilisés pour entraîner les modèles de langage de pointe. Amazon espère ainsi réduire les coûts et améliorer les performances de ses services cloud basés sur l’IA.

L’essentiel : Amazon tente de rattraper Microsoft et Google dans l’IA générative au moyen des puces électroniques, essentielles au fonctionnement de cette technologie.

  • Amazon conçoit ainsi les puces Inferentia et Trainium, qui doivent l’aider à créer des solutions personnalisées en réponse à l’essor de l’IA générative.
  • Il s’agit d’alternatives aux GPU Nvidia pour former les grands modèles de langage. Depuis l’explosion de l’IA, il est devenu particulièrement difficile et couteux de mettre la main sur ces puces. D’autant plus que Nvidia lance désormais un nouveau processeur d’IA ultra-rapide pour se débarrasser de la concurrence…
  • Ce développement doit avant tout aider Amazon à tenir tête à Microsoft (qui se cache derrière OpenAI, la société qui a lancé ChatGPT) et Google, avec son propre rival (plus discret) à ChatGPT, Bard. Google a également investi dans Anthropic, société concurrente d’OpenAI.
    • Amazon avait attendu avril, des mois après tout le monde, pour révéler sa propre collection de modèles de langage de grande taille, nommée Titan, ainsi qu’un service nommé Bedrock pour aider les développeurs à optimiser les logiciels avec l’IA générative.
    • Mais en réalité, Amazon crée ses propres puces pour l’IA générative depuis plusieurs années. AWS, le service cloud de l’entreprise, a commencé à faire des puces spéciales en 2013 avec Nitro. En 2018, Amazon a ensuite créé ses premières puces pour l’IA. Inferentia est sortie sur le marché en 2019, puis Trainium a suivi en 2021.
  • Parce que c’est un domaine incroyablement prometteur, le grand patron d’Amazon Andy Jassy supervise personnellement une équipe pour les grands modèles de langage.

« Le monde entier a besoin de plus de puces pour l’intelligence artificielle générative, que ce soient des GPU ou que ce soient les propres puces d’Amazon que nous concevons. Je pense que nous sommes mieux placés que quiconque sur Terre pour fournir la capacité que nos clients vont collectivement vouloir. »

Adam Selipsky, CEO d’Amazon Web Services, dans une interview à CNBC

S’appuyer sur ses forces

Les détails : Pour se démarquer de ses concurrentes, Amazon se concentre sur le cloud comme facteur différenciateur :

  • L’entreprise peut s’appuyer sur sa base de plusieurs millions de clients existants dans le cloud pour l’adoption de l’IA générative. AWS domine en effet le marché mondial du cloud computing, avec une part de 40% en 2022, d’après le cabinet d’études spécialisé dans les technologies Gartner. Devançant largement ses concurrents Microsoft, Google et Alibaba.
    • Ces clients peuvent être tentés de choisir Amazon pour l’IA générative, car ils lui font confiance et ils connaissent bien ses services.
    • Plus de 100 000 de ces clients utilisent déjà l’apprentissage automatique sur AWS.
  • Mais la société ne se repose pas sur ses lauriers et développe un portefeuille croissant d’outils pour l’IA générative à destination des développeurs, tels que SageMaker, CodeWhisperer et AWS HealthScribe.
  • Pour continuer à grappiller des parts de marché, AWS a annoncé en juin un « centre » d’innovation en IA générative de 100 millions de dollars.
    • Andy Jassy a affirmé lors de la présentation des résultats du deuxième trimestre que l’IA et les plus de 20 services d’apprentissage automatique qu’il propose sont à l’origine d’une “part très importante” de son activité, afin d’offrir aux clients des solutions innovantes et personnalisées.

Un obstacle ? La croissance de l’IA générative suscite des préoccupations pour la sécurité et la protection des données.

  • Les entreprises s’inquiètent de la confidentialité des données utilisées pour entraîner les grands modèles de langage publics.
  • Amazon rétorque qu’elle cherche à répondre à ces craintes en mettant en avant son engagement à fournir des solutions d’IA personnalisées et sécurisées à la tête du client.
    • « Je ne peux pas vous dire combien d’entreprises du classement ‘Fortune 500’ j’ai rencontrées qui ont interdit ChatGPT. Ainsi, avec notre approche de l’IA générative et notre service Bedrock, tout ce que vous faites, tout modèle que vous utilisez via Bedrock, sera dans votre propre environnement de cloud privé virtuel isolé. Il sera chiffré, il aura les mêmes contrôles d’accès AWS », a déclaré Adam Selipsky à CNBC.
    • Le responsable reste toutefois assez évasif et ne donne pas plus de précisions pour l’instant. Est-ce une stratégie pour attiser la curiosité, ou pour dissimuler des problèmes encore non résolus ? On se le demande encore…
Plus