Principaux renseignements
- OpenAI a publié deux nouveaux modèles de raisonnement conçus à des fins de sécurité, gpt-oss-safeguard-120b et gpt-oss-safeguard-20b.
- Ces modèles à poids ouvert favorisent la transparence et permettent aux organisations de les personnaliser pour répondre à des problèmes de sécurité spécifiques sur leurs plates-formes.
- OpenAI collabore avec d’autres organisations telles que ROOST pour s’assurer que les mesures de sécurité évolutives sont accessibles à tous au fur et à mesure que les capacités de l’IA progressent.
OpenAI a publié deux nouveaux modèles de raisonnement conçus pour aider les plateformes en ligne à identifier les différents risques de sécurité. Ces modèles, appelés gpt-oss-safeguard-120b et gpt-oss-safeguard-20b, sont basés sur les modèles gpt-oss existants d’OpenAI et ont été affinés à des fins de sécurité.
Avantages pour organisations et développeurs
Classés comme modèles à poids ouvert, leurs paramètres sont accessibles au public, ce qui favorise la transparence et le contrôle. Cette distinction par rapport aux modèles entièrement libres permet aux organisations de personnaliser les modèles en fonction de leurs besoins spécifiques tout en conservant des informations sur le raisonnement qui sous-tend chaque résultat.
Par exemple, une plateforme hébergeant des évaluations de produits pourrait utiliser ces modèles pour détecter les évaluations potentiellement fausses, tandis qu’un forum de jeux pourrait les utiliser pour identifier les messages discutant de tricherie.
Collaboration avec partenaires de premier plan
OpenAI a développé ces modèles en collaboration avec Discord, SafetyKit et ROOST (Robust Open Online Safety Tools), une organisation axée sur la construction d’une infrastructure de sécurité pour l’intelligence artificielle. Actuellement disponibles en tant qu’aperçu de recherche, les modèles seront soumis aux commentaires des chercheurs et de la communauté de la sécurité.
Cette initiative pourrait répondre aux préoccupations soulevées par les critiques qui affirment que la croissance rapide de l’OpenAI a donné la priorité à la commercialisation plutôt qu’à l’éthique et à la sécurité de l’IA.
Accent mis sur accessibilité
Camille François, président de ROOST, a souligné l’importance de suivre le rythme de l’évolution des capacités de l’IA, en déclarant : « À mesure que l’IA devient plus puissante, les outils de sécurité et la recherche fondamentale sur la sécurité doivent évoluer tout aussi rapidement – et ils doivent être accessibles à tous. » Les poids modèles sont disponibles au téléchargement sur Hugging Face pour les utilisateurs éligibles. (uv)
Suivez également Business AM sur Google Actualités
Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

