Consensus mondial à Paris sur les priorités en matière de sécurité dans le secteur de l’IA


Principaux renseignements

  • Un consensus mondial sur la sécurité de l’IA a émergé malgré les récentes divisions lors du sommet de Paris sur l’action en matière d’IA.
  • Le consensus de Singapour sur les priorités mondiales de recherche en matière de sécurité de l’IA décrit les domaines de recherche essentiels pour garantir un développement sûr de l’IA, notamment l’évaluation des risques liés à l’IA et la mise au point de systèmes d’IA dignes de confiance.
  • L’établissement de seuils de risque pour déterminer quand une intervention est nécessaire est également une recommandation clé du rapport.

Malgré la récente division du Sommet de Paris sur l’action en matière d’IA, un nouveau rapport révèle l’existence d’un consensus mondial sur la sécurité de l’IA. Ce rapport est le fruit d’une conférence qui s’est tenue à Singapour en avril dernier et qui a rassemblé d’éminents experts en IA et des représentants de gouvernements et d’entreprises technologiques du monde entier. Alors que le sommet de Paris a été marqué par un désaccord sur une déclaration sur l’IA, l’événement de Singapour, intitulé « Échange scientifique international sur la sécurité de l’IA », visait à combler ce fossé.

  • Le résultat est le « Consensus de Singapour sur les priorités mondiales de recherche en matière de sécurité de l’IA », qui décrit les domaines de recherche essentiels pour garantir un développement sûr de l’IA.

Le document met l’accent sur trois aspects fondamentaux : l’évaluation des risques liés à l’IA, le développement de systèmes d’IA dignes de confiance et le contrôle de ces systèmes, qui englobent différents types, notamment de grands modèles de langage et des modèles multimodaux capables de traiter des données diverses. Le rapport préconise notamment l’établissement de seuils de risque afin de déterminer quand une intervention est nécessaire.

Systèmes d’IA équitables

En outre, le consensus souligne l’importance de développer des systèmes d’IA véridiques et honnêtes en utilisant des ensembles de données fiables. Une surveillance continue et des contrôles de sécurité rigoureux, tels que des tests contre les tentatives de « jailbreaking », sont essentiels pour garantir que les systèmes d’IA respectent les normes établies. Le rapport aborde également la question de la résilience sociétale face aux perturbations induites par l’IA. Il propose de mettre en œuvre des mesures de protection telles que des interrupteurs d’arrêt et des systèmes d’IA non agentiques pour superviser les systèmes agentiques, ainsi que des cadres de surveillance centrés sur l’homme.

  • Le renforcement des infrastructures contre les menaces liées à l’IA et la mise en place de mécanismes coordonnés de réponse aux incidents sont des éléments essentiels de cette approche.

L’avenir avec l’IA sécurisée

Malgré l’intensification de la concurrence géopolitique dans le domaine de l’IA, la conférence de Singapour souligne un engagement commun à façonner un avenir plus sûr pour l’IA. Des entreprises d’IA de premier plan, dont OpenAI et Anthropic, ont participé activement à la conférence, démontrant ainsi leur volonté d’aborder les questions de sécurité de manière transparente.

Comme le souligne Max Tegmark, professeur au MIT et contributeur au rapport, les gouvernements et les entreprises technologiques ont un intérêt mutuel à garantir la sécurité de l’IA, à l’instar des normes de sécurité rigoureuses appliquées à des industries puissantes telles que la biotechnologie. Il espère que d’ici le prochain sommet sur l’IA en Inde, les pays adopteront une approche similaire à la réglementation de l’IA, en exigeant des évaluations de sécurité comparables à celles des nouveaux médicaments.

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus