TABBY ML : Assistant de codage IA auto-hébergé
https://github.com/TabbyML/tabby
📌 TabbyML est une application open-source et auto-hébergée qui propose une alternative locale à GitHub Copilot. TabbyML transforme un éditeur de code en assistant intelligent, local et personnalisable, tout en respectant la confidentialité des projets. Facile à mettre en place, il devient vite indispensable.
🧠 Code Completion
Accélère la rédaction de ton code avec des suggestions contextuelles alimentées par l’IA.
Tabby comprend ce que tu es en train de coder et te propose en temps réel des complétions pertinentes :
- ⚡ Efficace : des prédictions rapides et cohérentes, quel que soit le langage ou la complexité du projet.
- 🎯 Intuitif : l’IA s’adapte à ton style de développement et s’intègre sans friction à ton IDE.
💬 Answer Engine
Obtiens instantanément des réponses à tes questions, sans quitter ton éditeur :
- 🔍 Réponses instantanées : des explications claires et des exemples concrets dès que tu en as besoin.
- 🧪 Moins d’interruptions : tu restes dans ton flow de code, sans avoir à chercher ailleurs.
💬 Inline Chat
Collabore avec ton assistant IA directement dans ton éditeur grâce au chat intégré :
- 🧩 Conversations liées au contexte : les échanges sont centrés sur ton code actuel.
- 🔄 Suggestions interactives : pose des questions, reçois des réponses, modifie ton code en direct.
🔗 Data Connectors
Enrichis les capacités de Tabby en lui donnant accès à ton environnement technique :
- 🧬 Connexion à diverses sources : doc, fichiers de config, APIs externes…
- 🧠 Compréhension approfondie : Tabby devient un assistant contextuellement conscient.
🚀 Fonctionnalités clés de TabbyML
- ⚙️ Auto-hébergement complet, sans dépendance extérieure
- 🔌 API OpenAPI pour intégration dans les workflows existants
- 🎮 Support GPU local : exploite la puissance de ton matériel pour des suggestions plus rapides
- 🧩 Extensions pour IDE : VSCode, NeoVim, IntelliJ, Android Studio, PyCharm, etc.
- 🔄 Mises à jour fréquentes : moteur de réponses centralisé, authentification LDAP, intégration GitHub/GitLab, et plus encore

🍏 Installation sur Mac (Apple Silicon)
TabbyML est compatible avec les Mac M1/M2 (et Intel avec adaptation). L’installation est simple via Homebrew :
brew install tabbyml/tabby/tabby
Tu peux ensuite lancer un modèle adapté :
tabby serve --device metal --model TabbyML/DeepseekCoder-6.7B
📌 Lire le guide d’installation complet
🔍 Choisir son modèle LLM
Selon la RAM disponible :
RAM | Taille modèle | Recommandation |
---|---|---|
< 16 Go | ≤ 3B | StarCoder |
16–24 Go | ≤ 7B | DeepSeekCoder ou CodeLlama |
> 24 Go | ≤ 13B | WizardCoder ou CodeLlama 13B |
🧠 Modèles recommandés :
- 🐍 CodeLlama : excellent pour Python
- 💡 StarCoder : léger, performant sur petite config
- 🥇 DeepSeeker : excellent score global
🧩 Intégration dans les projets
Configure tes projets pour que Tabby les prenne en compte :
[[repositories]]
name = "Nom du projet"
git_url = "file:///chemin/vers/le/projet"

En savoir plus sur Clement MONDARY
Subscribe to get the latest posts sent to your email.