Principaux renseignements
- OpenAI, Anthropic et Google partagent des informations pour empêcher leurs concurrents chinois de copier leur technologie.
- La collaboration se concentre sur la distillation, une technique permettant aux entreprises étrangères de construire leurs propres modèles à moindre coût et sans contrôles de sécurité.
- Des responsables américains estiment que ces pratiques non autorisées coûtent chaque année des milliards de bénéfices au secteur.
De grandes entreprises technologiques américaines telles qu’OpenAI, Anthropic et Google unissent leurs forces pour freiner le vol technologique perpétré par des concurrents chinois. Ces sociétés échangent des informations par l’intermédiaire du Frontier Model Forum, une organisation à but non lucratif qu’elles ont fondée en 2023 avec Microsoft.
Elles souhaitent détecter la distillation hostile. Il s’agit d’une pratique par laquelle des acteurs étrangers utilisent les résultats d’intelligences artificielles américaines avancées pour entraîner leurs propres systèmes plus abordables. Cette collaboration rare illustre la gravité des risques économiques et sécuritaires pour le secteur américain.
La distillation menace le modèle économique
La distillation utilise un modèle parent avancé pour entraîner un nouveau système plus petit. Bien que les entreprises encouragent cette méthode pour un usage interne, la pratique devient controversée quand des tiers l’appliquent sans autorisation. En effet, des acteurs basés en Chine et en Russie exploitent largement cette technique. Par conséquent, cette appropriation provoque d’importants dommages économiques.
De plus, les laboratoires chinois distribuent régulièrement leurs créations en accès libre. Cette approche attaque directement le modèle économique des sociétés américaines qui investissent des milliards dans les infrastructures. Enfin, les laboratoires américains signalent un risque majeur pour la sécurité nationale. Puisque la distillation génère des modèles dépourvus de mécanismes de protection, des individus malveillants créent facilement des applications nuisibles.
Rapprochement après l’émergence de DeepSeek
L’inquiétude dans le secteur américain a fortement augmenté en janvier 2025, lorsque l’entreprise chinoise DeepSeek a lancé de manière inattendue le modèle à succès R1. Peu après, Microsoft et OpenAI ont lancé une enquête sur un possible vol de données par cette start-up chinoise. En février de cette année, OpenAI a averti les décideurs politiques américains que DeepSeek applique des tactiques de plus en plus sophistiquées pour siphonner les modèles américains.
Selon OpenAI, DeepSeek tente de profiter de l’innovation des laboratoires occidentaux. Également, Anthropic a bloqué des entreprises chinoises plus tôt cette année et a désigné Moonshot et MiniMax comme responsables aux côtés de DeepSeek. Google a indiqué dans un article de blog que le nombre de tentatives d’extraction est en hausse.
Restrictions de la collaboration par la législation
L’échange d’informations entre les entreprises d’IA ressemble aux pratiques courantes en matière de cybersécurité. En partageant des données sur les attaques, les laboratoires espèrent identifier plus rapidement les responsables et mettre fin aux abus. L’administration du président américain Donald
Trump est favorable à cette approche et a proposé un centre d’information spécial l’année dernière. Néanmoins, la collaboration reste limitée pour le moment. Les entreprises sont incertaines quant à leur marge de manœuvre juridique dans le cadre de la législation antitrust actuelle. Elles demandent donc plus de clarté au gouvernement américain pour mieux mener la bataille concurrentielle contre la Chine. (fc)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici !

