“L’ordinateur dit que vous allez mourir, nous ne savons pas pourquoi, mais il a presque toujours raison”

L’intelligenceartificielle (IA) peut maintenant prédire avec une précisionextraordinaire les chances de survie d’un patient. Toutefois, cesprédictions sont basées sur des modèles que les chercheurs ne sontpas capables d’expliquer totalement.  

Imaginez que la prochainefois que vous voyez votre médecin, il vous dise que vous êtesatteint d’une maladie mortelle. « Le diagnostic a été réalisépar un ordinateur, procédé trop complexe pour être totalementcompris par les humains. Mais finalement, ce que votre médecin vousexpliquera, c’est que l’ordinateur a presque toujours raison »,explique la Harvard Business Review (HBR). Les deux auteurs de cet article dans HBR sont : Andrew Burt et Samuel Volchenboum. Le premier est chef de la protection de la vie privée et ingénieur juridique chez Immuta. Le deuxième est professeur agrégé de pédiatrie, directeur du Centre for Research Informatics, et membre du Centre des sciences de la prestation des soins de santé et de l’innovation à l’Université de Chicago.

Selon HBR, bien que cescalculs soient trop complexes à comprendre, le diagnostic s’avère maintenant correct dans 90% des cas étudiés.

Des algorithmes d’apprentissage automatique

La Harvard BusinessReview cite une étude menée l’année dernière par une série descientifiques des universités de Chicago, Stanford, San Francisco(UCLA) et par le moteur de recherche Internet Google. 

Pour cetteétude, les données anonymisées de 125.000 patients ont étéconfiées à une série d’algorithmes d’apprentissage automatique. L’apprentissage automatique (en anglais machinelearning, littéralement « l’apprentissage machine »)ou apprentissage statistique, est le champ d’étude de l’intelligenceartificielle, concerne la conception, l’analyse, le développement etl’implémentation de méthodes permettant à une machine (unordinateur) d’ apprendre. Les calculs ont ensuiteété confiés aux puissants ordinateurs de Google.

Les résultats ont laissébouchée bée les universitaires :

Dans les 24 heures suivantl’hospitalisation d’un patient, les algorithmes étaient capables deprédire avec plus de 90% de précision les chances de mourir dupatient. Ces prédictions, cependant, étaient basées sur desmodèles que les chercheurs n’ont pas pu expliquer complètement.

Cela peut avoir desconséquences majeures. Imaginez que vous êtes admis dans un hôpitaloù l’on vous dit que vous allez mourir, « parce que l’ordinateur ledit. Nous ne savons pas pourquoi l’ordinateur le dit, mais dans 9 cassur 10, il a raison. »

Certains pays veulent uneinterdiction des « algorithmes non explicables »

Dans certains pays,il existe déjà une résistance à ce type de méthode et lespoliticiens réclament une interdiction complète de l’utilisation d' »algorithmes non explicables ». Au début de l’année, lesecrétaire d’Etat français chargé du numérique, MounirMahjoubi, a déclaré catégoriquement que tout algorithme qui ne peut pas être expliqué en devrait pas être utilisé.

Mais dans certains cas,les médecins devront utiliser des modèles plus précis que leurexpertise humaine. Cela ne signifie pas que l’avis du médecindeviendra inutile, mais bien qu’outre de nouvelles opportunités, denouveaux risques apparaîtront, selon que la technologie évolue etdevient plus précise.

Plus