Web Analytics

Ancien PDG de Google Eric Schmidt : « IA entre de mauvaises mains peut être plus catastrophique que les attentats du 11 septembre »


Principaux renseignements

  • Des pays comme la Corée du Nord, l’Iran ou la Russie pourraient utiliser l’IA à des fins néfastes.
  • Eric Schmidt plaide en faveur d’une surveillance gouvernementale et d’une transparence dans le développement de l’IA afin d’éviter toute utilisation abusive.
  • Des réglementations trop strictes sur le développement de l’IA pourraient étouffer l’innovation et entraver sa progression.

Eric Schmidt, ancien PDG de Google, a souligné les dangers potentiels de l’intelligence artificielle (IA) tombant entre les mains d’acteurs malveillants. Il s’est inquiété du fait que des pays comme la Corée du Nord, l’Iran ou la Russie pourraient exploiter l’IA à des fins néfastes, comme la mise au point d’armes biologiques.

Schmidt a insisté sur la nécessité pour le gouvernement de superviser les entreprises privées impliquées dans le développement de l’IA, en plaidant pour la transparence et le contrôle afin d’éviter les abus. Il a toutefois mis en garde contre une réglementation excessive, citant l’Europe en exemple. Selon lui, des réglementations trop strictes pourraient étouffer l’innovation et entraver les progrès du développement de l’IA. Schmidt estime que la « révolution de l’IA », comparable à l’impact de l’électricité, a peu de chances de se développer en Europe en raison de ses politiques restrictives.

Une approche trop stricte dans l’UE ?

Faisant écho à ses récentes remarques lors du AI Action Summit à Paris, Schmidt a critiqué l’approche de l’UE, qu’il a jugée trop stricte, faisant fuir les investissements et entravant la croissance de l’industrie de l’IA. Il s’est déclaré favorable au contrôle des exportations américaines de micropuces avancées, essentielles pour les systèmes d’IA de grande puissance.

Dangers potentiels

Schmidt a établi un parallèle entre les dangers potentiels de l’IA et les attentats du 11 septembre, exprimant sa crainte d’un scénario à la « Oussama ben Laden » dans lequel un individu malveillant pourrait exploiter l’IA pour nuire à des innocents.

Si vous souhaitez accéder à tous les articles, abonnez-vous ici!

Plus