Les mises en garde contre l’IA se multiplient depuis peu : entre le risque pour des millions de travailleurs de devenir obsolètes et danger pour l’humanité. Des avertissements qui viennent parfois de personnes profondément actives dans le secteur. Et c’est peut-être ça qui porte le plus préjudice au message.
L’actualité : un groupe de chercheurs, d’ingénieurs et de PDG – dont celui d’OpenAI, Sam Altman – signent une déclaration commune mettant en garde contre la menace existentielle de l’IA pour l’humanité.
Ce que l’on retient : la déclaration tient en 22 mots (en anglais et 31 en français).
« L’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires. »
- Difficile de faire passer l’ampleur du danger dans un message aussi court.
- Aucune explication concrète n’est apportée pour illustrer le danger posé par l’IA.
- De même, aucune solution n’est avancée.
- Comment prendre ce message au sérieux ?
S’il y a la signature de grands noms du secteur, la déclaration manque en effet de substance pour qu’elle ait un impact.
- Dans son introduction – plus généreuse que la mise en garde -, on apprend que la déclaration vise avant tout à « ouvrir la discussion », ainsi qu’à « créer une connaissance commune du nombre croissant d’experts et de personnalités publiques qui prennent également au sérieux certains des risques les plus graves de l’IA avancée. »
Ne pas faire les mêmes erreurs
Dan Hendrycks, le directeur exécutif du Center for AI Safety, une organisation à but non lucratif basée à San Francisco à l’origine de la mise en garde, a apporté des éléments de réponse concernant la longueur de la déclaration dans une interview accordée au New York Times.
- Il a expliqué que la brièveté du message visait à éviter les désaccords engendrés par la lettre co-signée par Elon Musk, Steve Wozniak et compagnies qui appelait à une pause de 6 mois dans le développement de l’IA.
- Cette dernière a en effet été critiquée à plusieurs niveaux, notamment par Mark Zuckerberg et Bill Gates. Certains affirmaient qu’elle exagérait le risque posé par l’IA. D’autres étaient en désaccord avec le remède suggéré.
- Difficile de mettre tout le monde d’accord, c’est pourquoi les signataires de la récente déclaration ont préféré faire court.
- « Nous ne voulions pas préconiser un menu très large de 30 interventions potentielles » qui aurait dilué le message, a déclaré Hendrycks.
Mais, n’y avait-il pas un moyen d’allonger la mise en garde en se mettant d’accord sur certains éléments généraux concrets ? Avec 22 mots, difficile de se rendre compte de l’ampleur du problème.
Car au final, cette énième déclaration qui ne dit pas grand-chose a de fortes chances de se noyer dans le flot d’avis et mises en garde portant sur l’intelligence artificielle.
Des avis divergents
La prise de paroles de Dan Hendrycks se révèle plus intéressante que la déclaration signée par les PDG de DeepMind et d’OpenAI, de même que deux des lauréats du prix Turing 2018 pour leurs travaux sur l’IA.
- Il a expliqué que le message était une forme de « coming-out » pour les personnalités de l’industrie. « Il y a une idée fausse très répandue, même dans la communauté de l’IA, selon laquelle il n’y a que poignée de prophètes de malheur », a-t-il déclaré. « En réalité, de nombreuses personnes expriment en privé leurs inquiétudes à ce sujet ».
Cette déclaration pourrait donc mener à des prises de position publiques de personnalités de l’industrie et finalement aboutir à des mises en garde plus concrètes et construites. À voir…