Avec les assistants vocaux, comme ceux que l’on trouve sur nos smartphones ou certains objets connectés, l’interface homme-machine s’est simplifiée. Mais les intelligences artificielles pourraient bientôt décrypter notre langage non-verbal, le « body language ». Les chercheurs de l’Université de Carnegie Mellon sont parvenus à créer un système qui pose les premières pierres pour y parvenir avec de possibles conséquences sur la réalité virtuelle, les concepts de voitures autonomes ou encore la médecine. On ne pourra bientôt plus rien leur cacher !
Nul ne sait si le langage corporel des Latins sera plus compliqué que pour d’autres ! Mais si le projet OpenPose, disponible en open source sur Git Hub https://github.com/CMU-Perceptual-Computing-Lab/openpose, est exploité jusqu’au bout, les machines sauront peut-être interpréter et s’adapter à nos émotions. Plus sûrement, elles pourront être commandées par de simples gestes.
L’Université de Carnegie Mellon a en effet développé un système visant à traquer les micro-mouvements de notre corps pour les interpréter. Après avoir constitué une vaste base de données de signaux corporels (principalement pour les mains) dans leur dôme Panoptic Studios à 500 caméras, les chercheurs sont parvenus à mettre au point leur logiciel, associé à un PC portable muni d’une seule caméra, pour qu’il puisse détecter les poses et différents mouvements. Avec un système aussi léger et la publication en opensource du code du projet, ces conséquences pourraient rapidement être réelles (d’autant qu’une vingtaine d’entreprises s’en sont déjà saisi selon YaserSheikh, professeur de robotique à CMU).
Pour les chercheurs de Carnegie Mellon, la réalité virtuelle pourrait en être une des bénéficiaires. Avec une détection plus fine des mouvements et notamment ceux de la main, la VR se libèrerait de certaines contraintes de capteurs. Une voiture autonome équipée d’un tel système veillerait mieux à son environnement et notamment aux mouvements humains autour d’elle. Un tel dispositif pourrait aussi aider la recherche médicale dans la compréhension de pathologies psychologiques.
Mais ce que beaucoup espèrent, c’est l’amélioration des interactions avec un robot ou une IA. Pour lui donner des ordres bien sûr, en pointant par exemple un objet, mais aussi pour essayer d’interpréter vos émotions et s’y adapter.