TinyGPU : le support des GPU NVIDIA externes sur Mac est enfin disponible !
- 👨 Alban Martin
- Il y a 3 heures
- 💬 Réagir
Grâce à cette mise à jour, les possesseurs de Mac peuvent connecter une carte NVIDIA (RTX 4090, 4080, 3090, etc.) via une enclosure Thunderbolt/USB4 et l’exploiter pleinement pour faire tourner des modèles d’IA locaux beaucoup plus rapidement qu’avec les puces M-series seules.
Pourquoi c’est une révolution pour les utilisateurs Mac ?
- Les puces Apple Silicon (M1 à M5) sont excellentes, mais limitées en VRAM (mémoire unifiée).
- Avec TinyGPU, vous pouvez exploiter la puissance et la VRAM massive d’une carte NVIDIA externe.
- Le tout reste entièrement local, sans cloud, et fonctionne avec les outils que vous connaissez déjà (Ollama, LM Studio, etc.).
Le développeur principal de tinygrad (@__tinygrad__ sur X) a confirmé l’arrivée du support Mac pour les GPU NVIDIA externes, et la documentation officielle est déjà disponible.
Comment ça marche TinyGPU et les drivers Nvidia ?
TinyGPU est une couche logicielle qui permet à tinygrad (un framework d’IA très léger et performant) d’utiliser directement une carte NVIDIA externe connectée à votre Mac. Il s’appuie sur les drivers NVIDIA et le framework CUDA, tout en restant compatible avec l’écosystème Apple.
Petit tuto rapide pour tester TinyGPU sur votre Mac
Voici les étapes pour commencer dès maintenant (testé et validé sur macOS) :
- Matériel nécessaire
- Un Mac Mx comme le Mac mini M4 avec Thunderbolt 3/4 ou USB4
- Une enclosure Thunderbolt compatible (Sonnet, OWC, ADT-Link, etc.)
- Une carte NVIDIA RTX compatible (série 30 ou 40 recommandée)
- Installer les drivers NVIDIA
Allez sur le site NVIDIA et téléchargez les drivers CUDA pour macOS. - Installer TinyGPU
bash
pip install tinygrad[tinygpu] - Vérifier la détection de la carte
bash
python -c "from tinygrad import Device; print(Device.default)"
Vous devriez voir NVIDIA ou CUDA apparaître. - Lancer un modèle rapidement
Exemple avec Llama 3.1 8B :
bash
python -m tinygrad.examples.llama --model llama3.1-8b --gpu
Pour une utilisation plus simple avec Ollama ou LM Studio, TinyGPU est déjà reconnu par plusieurs outils de la communauté.
Documentation officielle :
C’est une avancée majeure pour tous ceux qui voulaient combiner la fluidité de macOS avec la puissance brute d’une carte NVIDIA. Le projet est encore jeune, mais il évolue très vite.
Vous avez déjà testé TinyGPU sur votre Mac ?