Anthropic vise une valorisation de 100 milliards de dollars grâce à chatbot Claude


Principaux renseignements

  • La valorisation d’Anthropic pourrait dépasser les 100 milliards de dollars (86,3 milliards d’euros) grâce au succès de son chatbot, Claude.
  • Le revenu annualisé de Claude a augmenté de manière significative en l’espace d’un mois.
  • Les investisseurs expriment leur intérêt bien qu’Anthropic ne soit pas en recherche active de fonds.

Anthropic, une startup spécialisée dans l’IA, serait en discussion pour un nouveau tour de table qui pourrait valoriser l’entreprise à plus de 100 milliards de dollars. Cette opération fait suite à un précédent tour de table réalisé en début d’année, qui valorisait Anthropic à 61,5 milliards de dollars (53 milliards d’euros). Des sources au fait du dossier indiquent que des investisseurs en capital-risque ont exprimé leur intérêt pour un investissement à une valeur supérieure à 100 milliards de dollars, même si Anthropic n’est pas activement à la recherche de fonds.

Cet investissement potentiel intervient dans un contexte de croissance significative du chatbot d’Anthropic, Claude. Le revenu annualisé de Claude est passé de 3 (2,5 milliards d’euros) à 4 milliards de dollars (3,4 milliards d’euros) au cours du dernier mois. Anthropic, fondée en 2021, compte Google et Amazon parmi ses investisseurs. Amazon envisagerait un investissement de plusieurs milliards de dollars en plus des 8 milliards de dollars (6,9 milliards d’euros) qu’elle a déjà versés.

Développements clés

Anthropic a récemment lancé Claude for Financial Services, une solution d’IA adaptée aux institutions financières. Jonathan Pelosi, responsable des FSI chez Anthropic, a souligné la forte traction que Claude a acquise dans les industries de haute confiance comme la finance. Il a souligné que les modèles d’Anthropic sont bien adaptés pour répondre aux besoins de ces entreprises.

Inquiétudes et défis

Malgré ces progrès, les inquiétudes concernant la technologie de l’IA persistent, en particulier dans les secteurs très réglementés comme les services financiers. Un rapport a déjà identifié les hallucinations, les cas où l’IA s’écarte du comportement attendu et produit des résultats inexacts, comme un obstacle majeur à l’adoption.

Pelosi a reconnu que les hallucinations constituent un défi important dans les secteurs qui dépendent de données précises pour la prise de décision. Bien qu’Anthropic ait fait des progrès dans la réduction des hallucinations, M. Pelosi a averti que Claude n’était pas totalement à l’abri de ce problème.

Plus