06:03

Pourquoi ARKit est meilleur que les autres solutions de AR ?

arkit realite augmentee apple iconARKit a fait exploser les démos de réalité augmentée sur iPhone alors même que cette technologie existait sous d'autres formes de SDK depuis longtemps (cf les premières apps en réalité augmentée : Nearest Tube London, Stella Artois ou Metro Paris en 2009).

Mais comment Apple a-t-il fait ? La raison est simple : le SDK ARKit fonctionne bien mieux que la concurrence, en tout cas ceux qui sont sur le marché. Pour mémoire, ARKit gère très bien les distances, les surfaces planes et la luminosité afin de calculer les ombres et l'éclairage d'une scène en 3D. Tout cela est fait avec un seul capteur photo alors que d'autres alternatives professionnelles ont besoin de angles de vue.

EDIT : ARKit 1.5 gère désormais les surfaces verticales.

Comment ça marche ARKit

La force d'ARKit est sa simplicité de prise en main et son résultat impressionnant avec un matériel classique.

Techniquement parlant Apple explique ce qu'est ARKit. ARKit est un VIO (Visual Inertial Odometry) qui calcule près de 30 fois par seconde la position (dont la distance) d'un objet "traqué" via la caméra, couplé à un IMU (Inertial Measurement Unit) représenté par les gyroscopes et accéléromètres. Dans l'API CoreMotion, ces capteurs travaillent 1000 fois par seconde pour calculer de votre position réelle.

Avec ses deux types de mesures, Apple filtre ensuite les données afin d'éliminer le bruit et ainsi proposer une position réaliste, loin du taux d'erreur habituel d'un système de réalité augmentée basée sur une simple lentille (souvent près de 30%).

Le plus "fou", c'est bien l'impression de 3D que dégage ARKit ainsi que la gestion de la distance. Alors que la gestion de la surface plane (par tracking de points dans la scène) est très bonne dans ARKit, il ne reste pas moins qu'un iPhone avec un seul capteur arrive à afficher une scène 3D.

Quant à la lumière, c'est tout simplement le capteur photo qui juge du niveau de lumière de la scène pour corriger la lumière du rendu.

Comment ARKit fait-il pour faire de la 3D ?

Pour avoir de la 3D, il faut normalement une image stéréoscopique, comprenez 2 images d'une même scène prise depuis des angles différents, un peu comme nos yeux. Avec une lentille, on capture une image, puis on bouge, puis une autre image, etc.
Apple a "triché" en calculant la distance parcourue entre deux frames (images) et en faisant un calcul stereo de l'image rendue. Comment est-ce possible ? Vous tenez votre iPhone en main et même si vous ne pensez pas bouger, vos muscles font des mini-mouvements. Les capteurs IMU sont très sensibles et renvoient donc des coordonnées différentes à chaque milliseconde. C'est magique !

Pour la distance, c'est la même idée avec les infos remontées par le gyroscope et l'accéléromètre. L'algorithme d'Apple fait ensuite le boulot en supprimant la marge d'erreur importante qu'on a souvent observé dans les apps de réalité augmentée par le passé. Encore une fois, la maitrise du software et du hardware combiné fait la différence.

arkit lego

Des concurrents à ARKit ?

Les concurrents sont déjà connus avec Hololens de Microsoft ou Tango de Google qui font des merveilles depuis 1 ou 2 ans mais les deux sont des produits en tant que tels, non distribués par million sur la planète alors qu'Apple a déjà un parc impressionnant d'iPhone et d'iPad. Voyons ce que l'avenir nous réserve mais encore une fois, Apple n'est pas le premier mais veut être le meilleur.

Si vous êtes développeur, jetez un oeil à ARKit et envoyez-nous vos exploits !

A propos de l'auteur : Medhi

Bercé au son des consoles et ordinateurs depuis sa plus tendre enfance, Medhi Naitmazi est un passionné de la mobilité et de la technologie en général : Apple bien sûr mais aussi Google, Microsoft, Samsung, etc. Les jeux vidéos, le développement informatique, l'art, le sport et le design complètent le tableau de ses préférences.

Enfin, Medhi travaille avec nombreux clients sur les questions mobiles : développement, UX, architecture, organisation...

○ Le suivre sur Twitter
○ Le contacter sur LinkedIn
○ Lui écrire : medhi(at)iphonesoft.fr

5 Commentaires

5. R.C - iPhone premium

28/08/2017 à 18h16 :

@ben - iPhone
Je pense aussi :)

4. ben - iPhone

27/08/2017 à 19h43 :

@R.C - iPhone premium
Je pense que ça va surtout leur servir à approcher et à le démocratiser auprès du grand publique pour ensuite sortir de vrais outils pour l'AR

3. R.C - iPhone premium

26/08/2017 à 21h00 :

Effectivement article très intéressant mais je continue à penser que la réalité virtuelle de Apple serait bien meilleur avec des lunettes devoir pointer son téléphone quand on utilise de la réaliser virtuel est pas super ergonomique

2. Andreas - iPad

26/08/2017 à 14h18 :

C'est exactement ça la philosophie d'Apple: " ne pas être le premier , mais le meilleur". C'est ce qui a fait que Apple cartonne depuis des décennies.

1. jerem - iPhone premium

26/08/2017 à 09h58 :

Super article merci les gars je comprends mieux !

Ajouter un commentaire

Si vous désirez échanger des images, des vidéos ou demander de l'aide sur le sujet, rendez-vous sur le meilleur Forum iPhone et iPad.

 (la modération se réserve le droit de suppression)


Il semblerait que vous utilisez un bloqueur de publicité !

iPhoneSoft finance la production de son contenu et ses serveurs grâce à la publicité. Merci d'ajouter iPhoneSoft.fr en exception de votre bloqueur de publicité.

En poursuivant votre navigation, vous acceptez l'utilisation de cookies sur le site et nos partenaires tiers pour personnaliser le contenu, la publicité ainsi que pour les mesures d'audience. Merci de cliquer sur le bouton ci-dessous pour donner votre accord.



En savoir plus