Il modélise son visage avec TrueDepth et ARKit

En utilisant le capteur TrueDepth et ARKit, un développeur-artiste de Moonshine Animation, Elisha Hung, a réalisé une petite merveille.

Il a réussi à modéliser quasiment parfaitement son visage et son image virtuelle imite parfaitement les grimaces du principal protagoniste.

Il modélise son visage grâce à TrueDepth et ARKit

Pour l'instant, le résultat final n'est pas très alléchant, voire carrément un peu flippant avec ce visage flottant de façon indépendante, mais les applications s'annoncent réjouissantes. Pouvoir intégrer son propre visage et ses expressions en temps-réel à un jeu pourrait être un vrai plus.




Un autre développeur astucieux, Brad Dwyer de chez Hatchlings, a de son côté publié une vidéo de son visage vu par le capteur TrueDepth :

Vous aimerez peut-être

Nos derniers articles

Suivez-nous avec notre app iSoft
Articles populaires
Donner votre avis
Les réactions

3 guilecrabe - iPhone

16/11/2017 à 17h11 :

@Frostth - iPhone
😂😂

2 Duke - iPhone premium

16/11/2017 à 13h17 :

@Frostth - iPhone
😂👌🏻

1 Frostth - iPhone

16/11/2017 à 12h04 :

Du coup on pourra mettre notre visage pour remplacer les animoji !!!
Par contre ça prendra autant de place qu’une vidéo.

Oh wait .....