FastVLM : l'IA ultra-rapide qui animera les futures lunettes connectées Apple

apple intelligence iconApple vient de dévoiler FastVLM, un modèle de langage visuel (VLM) qui pourrait bien être au cœur de ses futurs appareils connectés, notamment les lunettes intelligentes dont le lancement est prévu pour 2027. Ce modèle d'IA représente une avancée significative dans le traitement d'images à haute résolution, avec des performances qui laissent entrevoir de nouvelles possibilités pour les wearables d'Apple.

Une vitesse d'exécution sans précédent

FastVLM se distingue par sa rapidité exceptionnelle. Selon Apple, ce modèle est capable de générer le premier token de réponse 85 fois plus rapidement que les modèles concurrents comme LLaVA-OneVision. Cette performance est rendue possible grâce à son encodeur visuel FastViTHD, spécifiquement conçu pour traiter efficacement les images haute résolution.

Cet encodeur est non seulement 3,2 fois plus rapide que les solutions existantes, mais également 3,6 fois plus compact, ce qui en fait un candidat idéal pour une intégration dans des appareils aux ressources limitées comme des lunettes connectées. La réduction significative du nombre de tokens générés permet au modèle de traiter l'information visuelle beaucoup plus efficacement, tout en maintenant une précision comparable aux modèles plus volumineux.

fastvlm iphone ai ia modele visuel intelligence

Des applications idéales pour les lunettes connectées

Les caractéristiques de FastVLM correspondent parfaitement aux besoins des lunettes intelligentes qu'Apple développe actuellement. Ce modèle permettrait aux futures Apple Glasses de traiter localement les informations visuelles capturées par leurs caméras, sans avoir à dépendre du cloud. Cette approche garantirait non seulement une réactivité immédiate mais aussi une meilleure protection de la vie privée des utilisateurs.

FastVLM pourrait ainsi permettre aux lunettes d'Apple d'identifier instantanément des objets, de lire du texte manuscrit, de reconnaître des émojis ou encore d'analyser des gestes comme le nombre de doigts levés par l'utilisateur. Ces capacités seraient essentielles pour offrir une expérience d'informatique spatiale fluide et intuitive, similaire à celle du Vision Pro mais dans un format beaucoup plus compact et portable.

Le modèle s'appuie sur MLX, le framework d'apprentissage automatique open source d'Apple spécialement conçu pour Apple Silicon. Cette intégration optimisée permettrait d'exploiter pleinement les futures puces qui équiperont les lunettes connectées d'Apple, tout en minimisant la consommation d'énergie - un facteur critique pour ce type d'appareil.

  • Tous les détails du projets FastVLM d'Apple sont disponibles sur Github
2 réactions

Pascal-68 - iPhone premium

Régler déjà vos bugs parce que depuis un moment c’est catastrophique !
Maintenant je ne reçois plus les notifications des applications tierces pourtant j’ai rien fait et tout est activé !
L’autres jour c’est AirPrint qui bloque l’imprimente au milieu de l’impression . J’ai changé 3x d’imprimante et de marque et toujours le même problème. Mais quand j’imprime avec le MacBook j’ai pas de soucis. J’ai mon iPhone en fin de vie je vais m’acheter un android et on verra au pire je revends. Moi Apple c’est fini (enfin j’espère)!

13/05/2025 à 16h56

Dentso1 - iPhone

En espérant qu'ils trouvent la même solution pour leur LLM on-device

13/05/2025 à 16h11

Donnez votre avis
Cliquez pour commenter
Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Articles populaires
Les derniers articles