Apple à l’ICLR 2026 : SHARP transforme une image en 3D en moins d’une seconde

apple intelligence iconLa 14ᵉ édition de l’International Conference on Learning Representations (ICLR 2026) s’est achevée le 27 avril 2026 à Rio de Janeiro, au Brésil. Apple y était présente, comme d’autres grands acteurs, mais a su se distinguer avec près de 60 contributions !

L’ICLR 2026, l’un des rendez-vous majeurs de l’intelligence artificielle

Considérée comme l’une des conférences les plus prestigieuses au monde en apprentissage automatique et en IA, l’ICLR a réuni pendant cinq jours (du 23 au 27 avril) des milliers de chercheurs issus de l’académie et de l’industrie au Riocentro Convention Center. Des experts internationaux, dont Yann LeCun, ont participé à cet événement majeur, aux côtés des grands acteurs technologiques comme Google, Meta, Microsoft, Amazon, ByteDance, Huawei et Apple.

iclr 2026

Apple impressionne avec une présence scientifique majeure

Apple a marqué l’événement par une participation ambitieuse : un stand dédié et près de 60 contributions scientifiques présentées sous forme de posters, présentations orales, ateliers et démonstrations en direct.

Les technologies phares présentées sur le stand Apple

Sur son stand, Apple a mis en avant deux innovations particulièrement remarquées :

  • SHARP : un modèle open-source révolutionnaire capable de transformer une simple image 2D en une scène 3D photoréaliste en moins d’une seconde. Cette technologie, basée sur le 3D Gaussian Splatting, fonctionne efficacement sur iPad Pro avec la puce M5 et ouvre de nouvelles perspectives en réalité augmentée et reconstruction 3D.
  • Inférence de LLM sur MLX : démonstration de l’exécution efficace de grands modèles de langage directement sur Apple Silicon grâce au framework open-source MLX développé par Apple.

Le stand a également servi de hub de recrutement, permettant aux participants de postuler instantanément à des postes en machine learning via des iPads et des QR codes.

Travaux de recherche mis en avant par Apple

Parmi les nombreuses études acceptées, Apple a présenté notamment :

  • ParaRNN : Unlocking Parallel Training of Nonlinear RNNs for Large Language Models, présenté par Federico Danieli. Ce travail propose une méthode innovante pour entraîner en parallèle des réseaux de neurones récurrents non linéaires, améliorant significativement l’efficacité des grands modèles de langage.
  • Cram Less to Fit More : Training Data Pruning Improves Memorization of Facts, présenté par Kunal Talwar. Cette recherche montre comment une sélection intelligente des données d’entraînement peut améliorer la mémorisation des faits tout en réduisant la quantité de données nécessaire.

Découvrir toutes les recherches Apple à l’ICLR 2026

Pour consulter l’ensemble des travaux présentés par Apple lors de l’ICLR 2026, rendez-vous sur la page officielle dédiée :
Apple Machine Learning Research at ICLR 2026

Les réactions
Aucun commentaire pour le moment, lancez la discussion.
Donnez votre avis
Cliquez pour commenter
Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Articles populaires
Les derniers articles