La NASA fait appel aux plus fervents passionnés d’astronomie (professionnels ou non) pour optimiser l’utilisation de son rover Perseverance sur Mars. Leur mission: étiqueter les images de la planète rouge capturées par le robot.
L’an dernier, la NASA avait lancé un projet permettant à tout un chacun d’analyser les images de Mars prises par son rover Curiosity. Ils étaient invités, grosso modo, à indiquer les caractéristiques du sol (sableux, rocheux…) des photos.
Au total, un demi-million d’images avaient été étiquetées par les passionnés. Avec toutes ces indications, l’agence spatiale américaine était parvenue à bâtir un algorithme capable d’identifier correctement ces caractéristiques dans près de 98% des cas. Ce qui est devenu très utile par l’équipe qui pilote Curiosity afin de décider de ses itinéraires.
On prend (presque) les mêmes et on recommence (en mieux)
Cette semaine, la NASA nous apprend qu’elle veut rééditer l’expérience avec Perseverance. Baptisé AI4Mars, ce projet est la suite de celui construit autour de Curiosity. La mission est la même: faire part des caractéristiques de l’environnement martien capturé par le rover, afin d’entraîner un algorithme à mieux les reconnaître.
Etant donné que les images prises par Perseverance sont de meilleure qualité, le nombre d’étiquettes caractéristiques disponibles pour les classifier est plus important. Cela devrait donc permettre à l’algorithme de gagner tant en efficacité qu’en précision.
« AI4Mars fournit maintenant des étiquettes pour identifier des détails plus raffinés, permettant aux gens de choisir des options comme les roches flottantes (des « îles » de roches) ou les nodules (des boules de la taille d’une bille, souvent formées par l’eau, de minéraux qui ont été cimentés ensemble) », expliquent les responsables du Jet Propulsion Laboratory (JPL) de la NASA en Californie du Sud, qui gère les missions de Curiosity et de Persévérance.
Un énorme gain de temps
Perseverance possède 23 caméras et envoie des dizaines, voire des centaines d’images à la Terre chaque jour. Les responsables de la mission aimeraient réduire le délai entre le moment où les images sont reçues et celui où les instructions sont téléchargées vers le rover par ses équipes. Cela peut prendre des heures, car les ingénieurs et les géologues recherchent sur les photos des caractéristiques spécifiques intéressantes ainsi que des terrains qui pourraient être dangereux à traverser pour le rover.
« Il n’est pas possible pour un seul scientifique d’examiner minutieusement toutes les images téléchargées en si peu de temps, tous les jours », souligne Vivian Sun, un scientifique du JPL qui aide à coordonner les opérations quotidiennes de Perseverance et qui a été consulté sur le projet AI4Mars. « Nous gagnerions du temps s’il existait un algorithme capable de dire : je pense avoir vu des veines ou des nodules rocheux par ici. L’équipe scientifique pourrait alors examiner ces zones plus en détail. »
En plus de donner de précieux renseignements sur les chemins à faire emprunter à Perseverance (et sur ceux à éviter), l’algorithme pourrait aussi « sélectionner automatiquement des cibles scientifiques vers lesquelles se diriger », complète Annie Didier, membre du JPL, qui a travaillé sur la version Persévérance d’AI4Mars. « Il pourrait également stocker une variété d’images à bord du rover, puis renvoyer uniquement des images de caractéristiques spécifiques qui intéressent les scientifiques ».
Vous pouvez même créer votre propre algorithme
Enfin, l’équipe autour du projet insiste sur l’importance qu’elle donne à la possibilité de rendre son propre jeu de données accessible au public. L’ensemble de la communauté scientifique peut ainsi en bénéficier, ce qui ne peut être que positif pour la recherche.
« Si quelqu’un en dehors du JPL crée un algorithme qui fonctionne mieux que le nôtre en utilisant notre jeu de données, c’est formidable aussi », conclut Hiro Ono, chercheur en intelligence artificielle au sein du JPL qui a dirigé le développement d’AI4Mars. « Cela permet tout simplement de faire plus de découvertes ».