Ces dernières années, Google a réalisé des progrès importants sur le plan de l’intelligence artificielle. Récemment, l’entreprise s’est mise à former des robots à la compréhension et à la prédiction du comportement humain. Pour ce faire, les machines ont visionné une quantité impressionnante de séquences vidéo sur YouTube. Via cette expérience, Google souhaite doter les robots d’ « intelligence visuelle sociale »afin qu’ils puissent comprendre ce que les humains font, ce qu’ils pourraient faire et ce qu’ils tentent d’accomplir.En outre, cette expérience permettrait d’apprendre aux machines à agir en fonction d’intentions humaines visibles.Les clips vidéo visionnés par les machines durent trois secondes et sont issus de programmes de télévision du monde entier. Google a sélectionné 57.000 séquences vidéo, chacune en rapport avec une action spécifique d’un individu. Les vidéos ont ensuite été compilées dans la base de données Atomic Visual Actions (AVA) et subdivisées en 80 types d’actions différentes.
Publicité
En associant chaque activité à une personne spécifique, AVA a été capable d’analyser plusieurs actions simultanément et d’identifier le comportement de chaque personne. L’expérience s’est également focalisée sur des actions plus complexes durant lesquelles deux personnes interagissaient.Dans certains cas, les machines ont pu prédire le comportement humain, fournir de l’aide et même anticiper une action.« Malgré les percées réalisées ces dernières années dans le domaine de la reconnaissance et de la classification de sujets en images, l’identification d’actions humaines continue d’être un défi majeur », souligne les développeurs d’AVA. « Cela se doit au fait qu’une action humaine est moins définissable qu’un objet. »Enfin, selon certains observateurs, cette technologie pourrait également être utile pour l’activité publicitaire de Google. « Il serait plus facile d’envoyer des publicités ciblées en fonction des actions des consommateurs ».