Apple MLX s'ouvre aux GPU Nvidia pour le machine learning
Nadim Lefebvre
- Il y a 7 heures
- 💬 Réagir
- 🔈 Écouter
Apple facilite le développement d'applications d'intelligence artificielle en rapprochant son framework MLX des cartes graphiques Nvidia. Une initiative qui pourrait transformer la façon dont les développeurs abordent le machine learning, notamment en réduisant les coûts.
MLX s'ouvre à l'écosystème Nvidia
Apple travaille actuellement sur l'intégration d'un backend CUDA dans MLX, son framework open source dédié au machine learning. Cette initiative, menée par le développeur @zcbenz et apparemment soutenue par Apple, permet d'exporter du code développé sur Mac vers les infrastructures Nvidia.
Concrètement, les développeurs peuvent désormais prototyper leurs modèles localement sur un Mac équipé de puces Apple Silicon, puis les déployer sur des clusters GPU Nvidia pour la production. Cette approche hybride tire parti des forces de chaque plateforme : la commodité de développement sur Mac et la puissance brute des cartes graphiques Nvidia.

Une économie de coûts non négligeable
L'intérêt économique est considérable. Les configurations Nvidia dédiées au machine learning peuvent coûter plusieurs fois le prix d'un Mac haut de gamme. En utilisant leur Mac pour les phases de développement et de test, les organisations peuvent réduire significativement leurs investissements en hardware spécialisé.
Cette stratégie permet aussi d'optimiser les ressources : les équipes peuvent expérimenter localement avant de migrer vers des infrastructures plus puissantes uniquement pour les déploiements à grande échelle.
Un pont entre deux écosystèmes
Cette collaboration technique surprend, compte tenu des tensions passées entre Apple et Nvidia. Rappelons qu'Apple avait cessé de supporter les GPU externes Nvidia avec macOS Mojave. Cependant, dans le domaine de la recherche en IA, les deux entreprises semblent trouver un terrain d'entente.
Le projet reste en développement, avec plusieurs opérations déjà fonctionnelles comme la multiplication matricielle ou les fonctions de tri. Bien que toutes les fonctionnalités ne soient pas encore implémentées, cette initiative ouvre la voie à une meilleure interopérabilité dans l'écosystème du machine learning.