Principaux renseignements
- Stuart Russell met en garde contre l’affaiblissement des réglementations relatives au développement de l’IA.
- Russell considère que les pressions exercées par l’industrie en faveur d’une déréglementation sont dangereuses et à courte vue.
- Les tests externes obligatoires sont considérés comme une étape cruciale dans l’atténuation des risques associés aux systèmes d’IA.
La communauté de l’IA est de plus en plus préoccupée par les réglementations actuelles concernant l’intelligence artificielle. Stuart Russell, expert en IA et professeur à l’université de Berkeley, estime que le simple fait de suspendre ou d’affaiblir la législation sur l’IA au sein de l’Union européenne pourrait avoir des conséquences catastrophiques.
Il explique à Euroactiv que la tendance actuelle au relâchement des règles sous la pression de l’industrie est dangereuse et à courte vue. Russell souligne que si les entreprises affirment que leurs systèmes sont sûrs, il n’y a pas de véritable responsabilité en l’absence d’audits par des tiers indépendants.
La nécessité d’une réglementation plus stricte
Malgré son soutien à la loi sur l’IA, Russell en reconnaît les limites. Il soutient que même dans sa forme la plus forte, la législation n’aborde pas les risques existentiels potentiels posés par des systèmes d’IA de plus en plus puissants.
Le point de vue de Russell sur les dangers potentiels d’un développement incontrôlé de l’IA est partagé par un nombre croissant d’experts, y compris des lauréats du prix Nobel.
Avertissements de personnalités éminentes
Malgré les avertissements de personnalités éminentes telles que la présidente de la Commission européenne, Ursula von der Leyen, les actions concrètes visant à atténuer ces risques restent insaisissables. M. Russell craint qu’une réglementation significative n’apparaisse qu’après une catastrophe majeure semblable à l’accident nucléaire de Tchernobyl.
Il plaide pour des normes de sécurité comparables à celles exigées pour les centrales nucléaires, mais avec des seuils encore plus élevés compte tenu de la nature sans précédent de l’impact potentiel de l’IA. Il reconnaît toutefois la difficulté d’obtenir des garanties absolues de sécurité en raison de la nature complexe et souvent opaque des systèmes d’IA. Pour l’instant, Russell espère que le prochain code de bonnes pratiques de l’UE inclura des tests externes obligatoires, ce qui constituerait une étape cruciale vers l’atténuation des risques.