Il modélise son visage avec TrueDepth et ARKit
- Victor Sauvage
- Il y a 7 ans (Màj il y a 9 mois)
- 💬 3 coms
- 🔈 Écouter
En utilisant le capteur TrueDepth et ARKit, un développeur-artiste de Moonshine Animation, Elisha Hung, a réalisé une petite merveille.
Il a réussi à modéliser quasiment parfaitement son visage et son image virtuelle imite parfaitement les grimaces du principal protagoniste.
Il modélise son visage grâce à TrueDepth et ARKit
Pour l'instant, le résultat final n'est pas très alléchant, voire carrément un peu flippant avec ce visage flottant de façon indépendante, mais les applications s'annoncent réjouissantes. Pouvoir intégrer son propre visage et ses expressions en temps-réel à un jeu pourrait être un vrai plus.
Un autre développeur astucieux, Brad Dwyer de chez Hatchlings, a de son côté publié une vidéo de son visage vu par le capteur TrueDepth :
Here’s another scan. Cleaned up a little. Probably a better representation of what it “sees"
— Brad Dwyer (@braddwyer) 15 novembre 2017
I should note, this is one frame from the #TrueDepth camera. You could probably sample multiple frames to build a better depth map. pic.twitter.com/yweJ7hBJ1U