Science

Un robot enfant capable d'imiter les expressions humaines... mais cela devient inquiétant (vidéo)

2025-01-06

Auteur: Louis

Dans le domaine de la robotique moderne, l'un des défis majeurs est de créer des robots de plus en plus proches de l'humain. Alors que certains robots bipèdes, comme Atlas de Boston Dynamics, ou quadrupèdes, comme le petit Spot, maîtrisent magistralement la locomotion avec une agilité impressionnante, ils manquent encore d'éléments faciaux typiquement humains. En revanche, le robot humanoïde Ameca, conçu par Engineered Arts en 2021, possède des expressions faciales qui en inquiètent plus d'un.

Cette inquiétude provient du concept de la "vallée de l'étrange", une théorie avancée par le roboticien japonais Masahiro Mori dans les années 1970. Cette notion décrit un phénomène particulier : plus un robot humanoïde ressemble à un humain, plus il provoque un sentiment de malaise, voire de répulsion, lorsque ses imperfections deviennent visibles. Récemment, une équipe de chercheurs japonais a proposé une nouvelle technique pour surmonter cet obstacle, et leurs résultats ont été publiés le 20 décembre dans le Journal of Robotics and Mechatronics.

Une avancée révolutionnaire dans l'expression robotique

L'innovation développée à l'Université d'Osaka propose de concevoir les expressions faciales non plus comme des séquences rigides, mais comme une combinaison d'ondes dynamiques. Cette approche, nommée "dynamic arousal expression", marque une rupture avec les techniques classiques qui ne font que simuler des mimiques statiques.

L'équipe a décomposé chaque expression – qu’il s’agisse d'un bâillement ou du clignement des yeux – en ondes distinctes. Ces composantes sont ensuite liées à des paramètres physiques spécifiques, comme l'ouverture des lèvres ou le mouvement des sourcils. De plus, cette méthode innovante utilise un éventail émotionnel continu, passant de l'état "somnolent" à "excité", modulant l'intensité des ondes en conséquence.

Une synthèse complexe pour des émotions plus réalistes

Prenons l'exemple d'un robot affichant un état de somnolence. Plutôt que d'activer une simple "expression endormie", le système génère plusieurs ondes simultanément. Cela signifie qu'il module des éléments comme le rythme de la respiration, le clignement des yeux, et l'inclinaison de la tête de manière coordonnée. Les résultats, comme on peut le voir dans la vidéo, sont prometteurs, même s'ils ne sont pas encore totalement au point.

L'auteur principal de l'étude, Koichi Osuka, précise que cette avancée permettrait de créer des robots aux mouvements faciaux plus complexes et réactifs. Cela libérerait également les programmeurs de l'obligation de créer chaque état émotionnel individuellement.

La promesse d'une acceptation sociale ?

Malgré ces avancées, certains éléments de ce robot restent perturbants. Les transitions entre les différentes expressions peuvent sembler étranges, et le regard du robot, souvent vide, évoque encore l'artificialité. La modélisation dynamique des expressions faciales représente tout de même une amélioration notable par rapport aux systèmes traditionnels.

Pourquoi tout cela est-il si crucial ?

La capacité d'un robot à afficher des émotions fluides est essentielle pour son acceptation par les humains. Si un jour nous devions partager notre quotidien avec des androïdes, leur expressivité pourrait influencer notre rapport à eux. Néanmoins, une alternative serait de s'éloigner de l'imitation des visages humains et d'explorer d'autres modes de communication, comme des changements de couleurs ou des signaux sonores.

Ainsi, bien que ce robot de l'Université d'Osaka montre des progrès dans la fluidité et l'expressivité, il reste délicat à observer en raison de traits artificiels. L'avenir de la robotique expressive pourrait dépendre d'un véritable équilibre entre réalisme et acceptation.