Comment contrôler l'iPhone avec les yeux sous iOS 18
- Medhi Naitmazi
- Il y a 6 mois (Màj il y a 6 mois)
- 💬 7 coms
- 🔈 Écouter
Alors que les fonctions d'intelligence artificielle d'Apple ont beau faire exploser l'action AAPL en bourse, elles n'arriveront que plus tard dans l'année et sur seulement deux téléphones pour le moment - l'iPhone 15 Pro et l'iPhone Pro Max.
En revanche, la nouvelle option d'accessibilité "Eye Tracking", soit "Suivi oculaire" en français (mais appelée "Suivi du regard" par Apple), sera disponible sur tous les iPhone 12 et supérieurs, ainsi que sur l'iPhone SE 2022. Une nouveauté pratique pour les personnes handicapées moteur, mais aussi dans certains cas.
L'iPhone est toujours plus accessible
Le mois dernier, en amont de la WWDC 24 et de l'officialisation d'iOS 18, Apple avait présenté une série de fonctions d'accessibilité pour l'iPhone et a précisé qu'elles arriveraient "plus tard dans l'année". Elles sont désormais disponibles pour les développeurs via la bêta d'iOS 18, du moins pour les options "Eye Tracking", "Music Haptics" et "Vocal Shortcuts". Nous n'avons pas résisté longtemps avant de tester le suivi oculaire.
Le suivi oculaire dans iOS 18
Apple affirme que la nouvelle fonction d'accessibilité "suivi du regard" d'iOS 18 utilise l'intelligence artificielle pour permettre aux personnes dont la fonction motrice a été affectée d'utiliser l'iPhone et l'iPad uniquement avec leurs yeux.
Pourtant, contrairement à la gamme d'évolutions estampillées Apple Intelligence, le suivi oculaire n'est pas limité aux dernières iPhone et aux futurs modèles comme l'iPhone 16. Ce n'est pas une option si gourmande que cela.
Apple explique :
Le suivi des yeux utilise la caméra frontale pour se configurer et se calibrer en quelques secondes, et grâce à l'apprentissage automatique sur l'appareil, toutes les données utilisées pour configurer et contrôler cette fonction sont conservées en toute sécurité sur l'appareil.
Comment utiliser la fonction "Eye Tracking" de l'iPhone ?
Une fois activé dans Réglages > Accessibilité > Suivi du regard, iOS 18 vous demandera de suivre des yeux un point affiché à l'écran, afin d'étalonner la fonctionnalité. Quelques instants plus tard, le système vous rend la main, laissant l'utilisateur se déplacer entre les éléments de l'écran avec leurs yeux et "toucher" les boutons de l'écran en restant fixement sur la zone grâce à l'option "contrôle d'attente".
Le "contrôle d'attente" est une durée prédéfinie pendant laquelle l'utilisateur doit arrêter son regard sur un élément de l'écran pour l'activer. La précision n'est pas encore parfaite d'après nos tests, mais nul doute qu'Apple l'améliorera au fil des bêtas.
En fait, il faut surtout réaliser un bon étalonnage en plaçant l'iPhone, ou l'iPad (encore mieux) , sur un support fixe et en se mettant bien en face et sans bouger. Ainsi, le curseur sera bien plus précis, bien qu'il ne le soit pas autant que sur le Vision Pro. Apple a évidemment piqué la fonctionnalité utilisée sur visionOS. Pour le coup, tous les utilisateurs du casque contrôle l'interface avec leurs yeux, tout en validant avec les gestes de la main.
Voici une petite vidéo maison :
Le suivi oculaire d’iOS 18 en action ! #eyetracking pic.twitter.com/NndwptVlw3
— iPhoneSoft.fr (@iphonesoft_fr) June 13, 2024
La musique tactile
Parmi les autres options d'accessibilité d'iOS 18, Music Haptics, ou Musique tactile en français selon Apple, est la plus intéressante.
Une fois activée, notamment depuis le centre de contrôle, elle ajoute des tapotements, des textures et des vibrations raffinées à l'audio que l'on écoute depuis Apple Music. Une bonne idée pour "vibrer" discrètement au son de sa chanson préférée. Elle a évidemment été surtout conçue pour les malentendants,
N'oubliez pas d'aller voir toutes les nouveautés d'iOS 18.