Codec Avatars 2.0 : Meta vise le réalisme dans le métaverse
Les méta-ingénieurs approchent une certaine forme de réalisme pour le métaverse avec Codec Avatars 2.0, un prototype d’avatars VR utilisant des techniques avancées d’apprentissage automatique.
Il y a trois ans, la filiale de Meta, Facebook, dévoilait son travail avec Codec Avatars. Pris en charge par plusieurs réseaux de neurones, les avatars sont générés à l’aide d’un dispositif de capture spécialisé avec 171 caméras. Une fois créés, ils peuvent être contrôlés en temps réel à l’aide d’un prototype de casque virtuel avec cinq caméras (deux internes pour chaque œil et trois externes pour le bas du visage). Depuis, les équipes à l’origine du projet ont apporté plusieurs améliorations au système, notamment des yeux plus réalistes et une version ne nécessitant que le suivi oculaire et l’entrée du microphone.
En avril dernier, lors du séminaire MIT « Virtual Creatures and Being Virtual », Yaser Sheikh a présenté une nouvelle version de Codec Avatars. Malgré des développements majeurs et importants, il reste encore un long chemin à parcourir : « Je dirais que l’un des grands défis de la prochaine décennie est de voir si nous pouvons fournir une interaction à distance qui ne se distingue pas de la communication en face à face. » Au cours de l’atelier, il a noté qu’il est impossible de prédire dans combien de temps les codecs avatars seront effectivement publiés. Cependant, il a dit que lorsque le projet a commencé, il y avait dix miracles à accomplir, et maintenant il pense qu’il y en a cinq.
Avatars réalistes avec Avatars Codec 2.0 pour Meta
Cependant, Codec Avatars 2.0 peut être une solution autonome et non une mise à jour directe des avatars de dessins animés actuels. Dans une interview avec Lex Friedman, le PDG Mark Zuckerberg a décrit un avenir où les utilisateurs pourraient utiliser un avatar de style dessin animé dans les jeux occasionnels et un avatar réaliste dans les réunions d’affaires.
Laisser un commentaire