Accessibilité iOS 18 : Apple annonce le suivi oculaire, musique haptique, contrôle vocal CarPlay
- 👨 Alban Martin
- Il y a 7 mois
- 💬 7 coms
Déclarations d'Apple
Tim Cook, PDG d'Apple, a déclaré :
Nous croyons profondément au pouvoir de transformation de l'innovation pour enrichir la vie. C'est pourquoi, depuis près de 40 ans, Apple se fait le champion de la conception inclusive en intégrant l'accessibilité au cœur de son matériel et de ses logiciels. Nous repoussons sans cesse les limites de la technologie, et ces nouvelles fonctionnalités reflètent notre engagement de longue date à offrir la meilleure expérience possible à tous nos utilisateurs.
De son côté, Sarah Herrlinger, directrice principale de la politique et des initiatives mondiales en matière d'accessibilité chez Apple, a ajouté :
Chaque année, nous innovons en matière d'accessibilité. Ces nouvelles fonctionnalités auront un impact sur la vie d'un large éventail d'utilisateurs, en leur offrant de nouvelles façons de communiquer, de contrôler leurs appareils et de se déplacer dans le monde
Les nouveautés à venir dans iOS 18
Le Suivi Oculaire Arrive sur iPad et iPhone
Propulsé par l'intelligence artificielle, la fameuse IA dont tout le monde parle, le suivi oculaire offre aux utilisateurs une option intégrée pour naviguer sur iPad et iPhone uniquement avec leurs yeux. Conçu pour les utilisateurs ayant des handicaps physiques, le suivi oculaire utilise la caméra frontale pour s'installer et se calibrer en quelques secondes. Grâce à l'apprentissage automatique sur l'appareil, toutes les données utilisées pour configurer et contrôler cette fonctionnalité sont sécurisées sur l'appareil et ne sont pas partagées avec Apple. Le suivi oculaire fonctionne sur les applications iPadOS et iOS, sans nécessiter de matériel ou d'accessoires supplémentaires. Avec le suivi oculaire, les utilisateurs peuvent naviguer à travers les éléments d'une application et utiliser le contrôle par maintien du regard pour activer chaque élément, accédant à des fonctions supplémentaires telles que les boutons physiques, les balayages et autres gestes uniquement avec leurs yeux.
Music Haptics rend la musique plus accessible
Music Haptics est une nouvelle façon pour les utilisateurs sourds ou malentendants de vivre la musique sur iPhone. Avec cette fonctionnalité d'accessibilité activée, le moteur Taptic de l'iPhone émet des tapotements, des textures et des vibrations raffinées synchronisées avec l'audio de la musique. Music Haptics fonctionne avec des millions de chansons dans le catalogue Apple Music et sera disponible en tant qu'API pour les développeurs afin de rendre la musique plus accessible dans leurs applications.
Les raccourcis vocaux
Avec les raccourcis vocaux, les utilisateurs d'iPhone et d'iPad peuvent attribuer des expressions personnalisées que Siri peut comprendre pour lancer des raccourcis et accomplir des tâches complexes. "Écoute pour Parole Atypique", une autre nouvelle fonctionnalité, offre aux utilisateurs une option pour améliorer la reconnaissance vocale pour une plus large gamme de discours. "Écoute pour Parole Atypique" utilise l'apprentissage automatique sur l'appareil pour reconnaître les modèles de parole des utilisateurs. Conçues pour les utilisateurs ayant des conditions acquises ou progressives affectant la parole, comme la paralysie cérébrale, la sclérose latérale amyotrophique (SLA) ou un accident vasculaire cérébral, ces fonctionnalités offrent un nouveau niveau de personnalisation et de contrôle, s'appuyant sur les fonctionnalités introduites dans iOS 17 pour les utilisateurs non-parlants ou risquant de perdre leur capacité de parler.
Les Indices de Mouvement des Véhicules peuvent réduire le mal des transports
Les indices de mouvement des véhicules sont une nouvelle expérience pour iPhone et iPad qui peut aider à réduire le mal des transports pour les passagers des véhicules en mouvement. Les recherches montrent que le mal des transports est souvent causé par un conflit sensoriel entre ce qu'une personne voit et ce qu'elle ressent, ce qui peut empêcher certains utilisateurs d'utiliser confortablement l'iPhone ou l'iPad en véhicule en mouvement. Avec les indices de mouvement des véhicules, des points animés sur les bords de l'écran représentent les changements de mouvement du véhicule pour aider à réduire le conflit sensoriel sans interférer avec le contenu principal. Utilisant les capteurs intégrés à l'iPhone et à l'iPad, les indices de mouvement des véhicules reconnaissent lorsqu'un utilisateur est dans un véhicule en mouvement et réagissent en conséquence. Cette fonctionnalité peut être configurée pour s'afficher automatiquement sur iPhone ou peut être activée et désactivée dans le Centre de contrôle.
CarPlay s'offre le contrôle vocal
Les fonctionnalités d'accessibilité à venir pour CarPlay incluent le contrôle vocal, les filtres de couleur et la reconnaissance sonore. Avec le contrôle vocal, les utilisateurs peuvent naviguer dans CarPlay et contrôler les applications uniquement avec leur voix. Avec la reconnaissance sonore, les conducteurs ou les passagers sourds ou malentendants peuvent activer des alertes pour être avertis des klaxons et des sirènes. Pour les utilisateurs daltoniens, les filtres de couleur rendent l'interface CarPlay visuellement plus facile à utiliser, avec des fonctionnalités d'accessibilité visuelle supplémentaires telles que le texte en gras et le texte agrandi. La nouvelle fonctionnalité de reconnaissance sonore dans CarPlay alerte un utilisateur d'un potentiel son de sirène. Les mises à jour de CarPlay incluent la reconnaissance sonore, qui permet aux conducteurs ou aux passagers sourds ou malentendants d'activer des alertes pour être avertis des klaxons et des sirènes.
Fonctionnalités d'Accessibilité à venir sur le Vision Pro
Cette année, les fonctionnalités d'accessibilité à venir sur visionOS incluront les sous-titres en direct à l'échelle du système pour aider tout le monde — y compris les utilisateurs sourds ou malentendants — à suivre les dialogues parlés dans les conversations en direct et dans l'audio des applications. Avec les sous-titres en direct pour FaceTime dans visionOS, plus d'utilisateurs peuvent facilement profiter de l'expérience unique de connexion et de collaboration en utilisant leur Persona. Apple Vision Pro ajoutera la capacité de déplacer les sous-titres à l'aide de la barre de fenêtre pendant la vidéo immersive d'Apple, ainsi que la prise en charge des appareils auditifs Made for iPhone supplémentaires et des processeurs auditifs cochléaires. Les mises à jour pour l'accessibilité visuelle incluront l'ajout de la réduction de la transparence, de l'inversion intelligente et de la diminution des lumières clignotantes pour les utilisateurs ayant une basse vision, ou ceux qui souhaitent éviter les lumières vives et les clignotements fréquents.
Rendez-vous le 10 juin 2024 pour découvrir les nouveautés d'iOS 18, avec probablement une tonne de changements liés à l'IA.