Pourquoi les agents IA sont moins inquiétants qu’on ne le pense

L’utilisation d’agents IA est-elle éthiquement acceptable ? Représentent-ils un risque pour la sécurité et la confidentialité des données ? Peut-on réellement se fier à leurs résultats ? Ce sont des questions légitimes, qui émergent à mesure que l’IA entre dans une nouvelle phase de développement. L’IA agentique franchit un cap supplémentaire : elle permet à des systèmes d’agir et de prendre des décisions de manière autonome – sans intervention humaine. C’est précisément cette autonomie qui rend le concept de confiance plus essentiel que jamais dans l’adoption de toute technologie.

Lorsque j’ai rejoint Salesforce, il y a treize ans, l’intelligence artificielle n’était même pas à l’agenda de la plupart des entreprises. À l’époque, c’était le cloud qui occupait le devant de la scène dans les projets de transformation numérique. Les clients doutaient encore de sa fiabilité et se demandaient s’il était vraiment prudent d’y stocker des données. En tant que membre de l’équipe chargée de la vie privée et de la sécurité, mon rôle consistait à rassurer ces clients et à leur démontrer que le cloud, à condition d’être correctement sécurisé – tant sur le plan technique qu’organisationnel – ne présentait pas de menace réelle pour leurs données.

Aujourd’hui, on observe le même phénomène avec l’IA agentique. Chaque fois qu’une nouvelle technologie ou réglementation émerge (comme ce fut le cas avec le RGPD), nous revenons à notre valeur fondamentale : la confiance. Et cette confiance, nous devons à nouveau l’inspirer pour encourager les entreprises à s’approprier les agents IA. C’est indispensable, car selon l’enquête Digimeter d’Imec, les perceptions positives vis-à-vis de l’IA progressent… mais la méfiance aussi.

Au sein de l’Ethical AI Advisory Council, dont je fais partie, ces enjeux de confiance, de vie privée et de sécurité sont au cœur de nos réflexions permanentes. La confiance est et doit rester le pilier du développement technologique, quel que soit le domaine.

Les agents, alliés de la sécurité et de la vie privée

Comme pour le cloud en son temps, de nombreuses entreprises doivent encore apprendre à connaître l’IA agentique. Elles ignorent souvent à quoi cette technologie peut concrètement leur servir. C’est pourquoi il est de notre responsabilité d’informer les acteurs concernés, de les accompagner dans l’identification de cas d’usage et de les aider à expérimenter. Nos produits intègrent déjà de nombreuses directives visant à garantir une utilisation appropriée des agents IA et autres technologies connexes.

Aujourd’hui, les agents IA sont encore trop souvent perçus comme un risque pour la sécurité et la vie privée. Pourtant, bien utilisés, ils peuvent renforcer ces deux aspects. Par exemple, de nombreux incidents de sécurité ont pour origine une erreur humaine. Grâce aux agents IA, ces erreurs peuvent être réduites au minimum, ce qui contribue directement à une meilleure sécurité. Ce qui est essentiel, c’est que l’agent sache ce qu’il peut faire… et ce qu’il ne peut pas faire, que des garanties claires soient en place, et que les organisations comprennent quand elles peuvent utiliser un agent et quand il faut passer la main à un collaborateur humain.

Des principes éthiques comme fondation

L’éthique est une clé fondamentale pour créer la confiance dans la technologie. Comment s’assurer, par exemple, que personne ne soit exclu ? Bien avant que l’IA ne devienne une tendance incontournable, nous avons mis sur pied une équipe dédiée à l’élaboration de principes éthiques. Ces lignes directrices sont largement nourries par les retours de nos clients, qui ont des attentes précises et parfois des inquiétudes. Notre équipe collabore aussi avec des chercheurs et reste à l’écoute de tous les départements de l’entreprise. Nous participons également à plusieurs groupes de travail, notamment autour des nouveaux cadres législatifs susceptibles d’avoir un impact sur l’usage de nos technologies.

Notre comité éthique ne se contente pas de défendre de « meilleures » lois, mais plaide pour des lois pertinentes, établies avec le secteur et en fonction des réalités du terrain. Sur cette base, nous avons formulé des principes éthiques proactifs qui servent de socle à l’ensemble de nos produits. Pour les agents IA, nous avons développé une version avancée de ces principes, offrant aux utilisateurs de véritables garde-fous pour une utilisation sûre et responsable, selon une approche « Privacy by Design ». Cela implique des fonctionnalités utiles, bien sûr, mais aussi des restrictions activées par défaut, pensées dans l’intérêt de l’éthique et de la vie privée, et non négociables dans la plupart des cas. Car la technologie en soi n’est ni bonne ni mauvaise. Ce qui compte, c’est l’usage qu’on en fait.

Clarifiez votre usage de l’IA

Dès qu’on parle d’agents autonomes, beaucoup imaginent que cette technologie finira par remplacer leur emploi. Mais technologie et emploi ne sont pas incompatibles. Ce qui est certain, en revanche, c’est que la plupart des métiers vont évoluer : certaines tâches seront confiées à des agents, ce qui transformera notre manière de travailler. Et en élargissant la capacité de production d’une entreprise grâce aux agents, on peut même voir le nombre de postes vacants augmenter. Les agents viennent donc en renfort, mais ici encore, la confiance est primordiale. Si on ignore comment un agent fonctionne, si on n’a pas intégré de principes « Privacy by Design », ou si on ne dispose pas d’un cadre clair pour encadrer leur déploiement, on ne peut pas introduire des agents efficacement dans l’organisation.

Or, beaucoup de gens peinent encore à utiliser l’IA correctement, ne sachant pas clairement quand et dans quel but y recourir. Et plus on déploie l’IA, plus certains craignent de devenir inutiles à court terme. C’est pourquoi il est essentiel de mettre en place un parcours d’apprentissage structuré pour les collaborateurs, afin qu’ils sachent comment travailler efficacement avec des agents. Mais aussi de définir un cadre explicite : dans quels cas les agents sont-ils une ressource clé, et dans quelles situations sont-ils à éviter ? C’est ainsi qu’on permet aux utilisateurs de comprendre pourquoi leur contribution humaine reste essentielle.

Confiance, éthique, protection des données… Ce sont les piliers fondamentaux de l’usage des agents IA. Et il est crucial d’y accorder toute notre attention, car les implications sociétales de l’IA sont considérables. Nous avons collectivement la responsabilité de favoriser un usage responsable de l’IA. C’est à cette condition que nous pourrons gagner la confiance du grand public – et libérer le potentiel réel des agents IA.

Lien Ceulemans, Country Leader de Salesforce Belux et membre du Ethical AI Advisory Council

Plus