Principaux renseignements
- DeepSeek-V3.1 optimise les performances pour les puces fabriquées en Chine, s’alignant ainsi sur les efforts de la Chine pour développer son industrie nationale des semi-conducteurs.
- Le modèle mis à jour utilise une structure d’inférence hybride, permettant à la fois des modes de raisonnement et de non-raisonnement par le biais d’un bouton de « réflexion profonde » réglable par l’utilisateur.
- DeepSeek continue d’accorder la priorité au fonctionnement rentable de l’IA en introduisant le format de traitement des données FP8 pour une utilisation efficace de la mémoire et des vitesses de traitement plus rapides.
DeepSeek, une startup chinoise spécialisée dans l’IA, a dévoilé jeudi une version améliorée de son modèle phare V3. Cette mise à jour met l’accent sur la compatibilité avec les puces produites dans le pays, ce qui pourrait aligner les modèles d’IA de DeepSeek sur les efforts déployés par la Chine pour développer son propre écosystème de semi-conducteurs. Cette initiative intervient dans un contexte de tensions croissantes entre les États-Unis et la Chine, Washington imposant des restrictions à l’exportation de technologies.
Améliorations précédentes
Au début de l’année, DeepSeek a attiré l’attention en publiant des modèles d’IA qui rivalisaient avec des homologues occidentaux tels que ChatGPT d’OpenAI, tout en offrant un fonctionnement plus rentable. Cette dernière mise à jour V3 fait suite à des améliorations précédentes de ses modèles de base, notamment une mise à jour du modèle R1 en mai et une amélioration précédente de la V3 en mars.
DeepSeek a souligné l’optimisation du format de précision UE8M0 FP8 de son modèle DeepSeek-V3.1 pour la compatibilité avec les prochaines puces fabriquées en Chine. Bien que les fabricants ou modèles de puces spécifiques n’aient pas été divulgués, le format de traitement des données FP8 permet un fonctionnement plus efficace de l’IA en réduisant l’utilisation de la mémoire et en accélérant les vitesses de traitement par rapport aux méthodes traditionnelles.
Structure d’inférence hybride
Le modèle DeepSeek-V3.1 introduit une structure d’inférence hybride, qui lui permet de fonctionner à la fois en mode raisonné et non raisonné. Les utilisateurs peuvent passer d’un mode à l’autre grâce à un bouton « deep thinking » accessible sur l’application et la plateforme web de l’entreprise, qui ont maintenant été mises à jour avec la version V3.1.
DeepSeek a également annoncé des ajustements de la tarification de son API, à compter du 6 septembre. Ces changements auront un impact sur les développeurs qui intègrent les modèles d’IA de DeepSeek dans leurs propres applications et produits web.
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

