TinyGPU : le support des GPU NVIDIA externes sur Mac est enfin disponible !

Les amateurs de jeux et surtout d'IA sur Mac seront ravis d'apprendre une excellente nouvelle. Le projet TinyGPU (issu de tinygrad) vient d’être officiellement lancé et permet désormais d’utiliser des cartes graphiques NVIDIA externes sur Apple Silicon.

Grâce à cette mise à jour, les possesseurs de Mac peuvent connecter une carte NVIDIA (RTX 4090, 4080, 3090, etc.) via une enclosure Thunderbolt/USB4 et l’exploiter pleinement pour faire tourner des modèles d’IA locaux beaucoup plus rapidement qu’avec les puces M-series seules.

Pourquoi c’est une révolution pour les utilisateurs Mac ?

  • Les puces Apple Silicon (M1 à M5) sont excellentes, mais limitées en VRAM (mémoire unifiée).
  • Avec TinyGPU, vous pouvez exploiter la puissance et la VRAM massive d’une carte NVIDIA externe.
  • Le tout reste entièrement local, sans cloud, et fonctionne avec les outils que vous connaissez déjà (Ollama, LM Studio, etc.).

Le développeur principal de tinygrad (@__tinygrad__ sur X) a confirmé l’arrivée du support Mac pour les GPU NVIDIA externes, et la documentation officielle est déjà disponible.

Comment ça marche TinyGPU et les drivers Nvidia ?

TinyGPU est une couche logicielle qui permet à tinygrad (un framework d’IA très léger et performant) d’utiliser directement une carte NVIDIA externe connectée à votre Mac. Il s’appuie sur les drivers NVIDIA et le framework CUDA, tout en restant compatible avec l’écosystème Apple.

Petit tuto rapide pour tester TinyGPU sur votre Mac

Voici les étapes pour commencer dès maintenant (testé et validé sur macOS) :

  1. Matériel nécessaire
    • Un Mac Mx comme le Mac mini M4 avec Thunderbolt 3/4 ou USB4
    • Une enclosure Thunderbolt compatible (Sonnet, OWC, ADT-Link, etc.)
    • Une carte NVIDIA RTX compatible (série 30 ou 40 recommandée)
  2. Installer les drivers NVIDIA
    Allez sur le site NVIDIA et téléchargez les drivers CUDA pour macOS.
  3. Installer TinyGPU
    bash
    pip install tinygrad[tinygpu]
  4. Vérifier la détection de la carte
    bash
    python -c "from tinygrad import Device; print(Device.default)"
    Vous devriez voir NVIDIA ou CUDA apparaître.
  5. Lancer un modèle rapidement
    Exemple avec Llama 3.1 8B :
    bash
    python -m tinygrad.examples.llama --model llama3.1-8b --gpu

Pour une utilisation plus simple avec Ollama ou LM Studio, TinyGPU est déjà reconnu par plusieurs outils de la communauté.

Documentation officielle :

C’est une avancée majeure pour tous ceux qui voulaient combiner la fluidité de macOS avec la puissance brute d’une carte NVIDIA. Le projet est encore jeune, mais il évolue très vite.

Vous avez déjà testé TinyGPU sur votre Mac ?

Les réactions
Aucun commentaire pour le moment, lancez la discussion.
Donnez votre avis
Vous aimerez peut-être

Suivez-nous avec notre app iSoft
Articles populaires
Les derniers articles