| | |

TABBY ML : Assistant de codage IA auto-hébergé

https://www.tabbyml.com

https://github.com/TabbyML/tabby

📌 TabbyML est une application open-source et auto-hébergée qui propose une alternative locale à GitHub Copilot. TabbyML transforme un éditeur de code en assistant intelligent, local et personnalisable, tout en respectant la confidentialité des projets. Facile à mettre en place, il devient vite indispensable.

🧠 Code Completion

Accélère la rédaction de ton code avec des suggestions contextuelles alimentées par l’IA.
Tabby comprend ce que tu es en train de coder et te propose en temps réel des complétions pertinentes :

  • Efficace : des prédictions rapides et cohérentes, quel que soit le langage ou la complexité du projet.
  • 🎯 Intuitif : l’IA s’adapte à ton style de développement et s’intègre sans friction à ton IDE.

💬 Answer Engine

Obtiens instantanément des réponses à tes questions, sans quitter ton éditeur :

  • 🔍 Réponses instantanées : des explications claires et des exemples concrets dès que tu en as besoin.
  • 🧪 Moins d’interruptions : tu restes dans ton flow de code, sans avoir à chercher ailleurs.

💬 Inline Chat

Collabore avec ton assistant IA directement dans ton éditeur grâce au chat intégré :

  • 🧩 Conversations liées au contexte : les échanges sont centrés sur ton code actuel.
  • 🔄 Suggestions interactives : pose des questions, reçois des réponses, modifie ton code en direct.

🔗 Data Connectors

Enrichis les capacités de Tabby en lui donnant accès à ton environnement technique :

  • 🧬 Connexion à diverses sources : doc, fichiers de config, APIs externes…
  • 🧠 Compréhension approfondie : Tabby devient un assistant contextuellement conscient.

🚀 Fonctionnalités clés de TabbyML

  • ⚙️ Auto-hébergement complet, sans dépendance extérieure
  • 🔌 API OpenAPI pour intégration dans les workflows existants
  • 🎮 Support GPU local : exploite la puissance de ton matériel pour des suggestions plus rapides
  • 🧩 Extensions pour IDE : VSCode, NeoVim, IntelliJ, Android Studio, PyCharm, etc.
  • 🔄 Mises à jour fréquentes : moteur de réponses centralisé, authentification LDAP, intégration GitHub/GitLab, et plus encore

🍏 Installation sur Mac (Apple Silicon)

TabbyML est compatible avec les Mac M1/M2 (et Intel avec adaptation). L’installation est simple via Homebrew :

brew install tabbyml/tabby/tabby

Tu peux ensuite lancer un modèle adapté :

tabby serve --device metal --model TabbyML/DeepseekCoder-6.7B

📌 Lire le guide d’installation complet

🔍 Choisir son modèle LLM

Selon la RAM disponible :

RAMTaille modèleRecommandation
< 16 Go≤ 3BStarCoder
16–24 Go≤ 7BDeepSeekCoder ou CodeLlama
> 24 Go≤ 13BWizardCoder ou CodeLlama 13B

🧠 Modèles recommandés :

  • 🐍 CodeLlama : excellent pour Python
  • 💡 StarCoder : léger, performant sur petite config
  • 🥇 DeepSeeker : excellent score global

🧩 Intégration dans les projets

Configure tes projets pour que Tabby les prenne en compte :

[[repositories]]
name = "Nom du projet"
git_url = "file:///chemin/vers/le/projet"

En savoir plus sur Clement MONDARY

Subscribe to get the latest posts sent to your email.

Publications similaires

Laisser un commentaire