Uncensored Local AI : exécuter des modèles GGUF hors ligne sur mobile et PC

https://github.com/techjarves/Uncensored-Local-AI-Multiplatform

📌 Uncensored Local AI est une application qui fait tourner des modèles open source directement sur l’appareil, sans cloud, sans compte et sans abonnement. L’objectif est simple : garder les conversations et les fichiers localement, tout en conservant une expérience de chat fluide sur Android et iOS, avec un socle multi-plateforme via Flutter.

L’intérêt au quotidien, c’est de pouvoir tester des modèles « sans restrictions » en mobilité, ou dans des contextes où l’accès réseau est limité. Une fois le modèle téléchargé dans l’app, tout fonctionne hors ligne : chat, historique, et métriques de performance en temps réel (vitesse, progression de chargement).

L’app intègre une bibliothèque de modèles au format GGUF : téléchargement, import et gestion dans une interface unique. Cela évite de bricoler des chemins de fichiers ou des scripts pour chaque appareil, et facilite le passage d’un modèle léger pour un téléphone modeste à un modèle plus lourd quand le matériel suit.

Points clés

  • 🔒 Conversations 100% locales, rien n’est envoyé sur un serveur
  • ✈️ Mode offline après téléchargement du modèle
  • 📚 Gestion de modèles GGUF dans l’app (télécharger, importer, organiser)
  • 📈 Indicateurs live (tokens/seconde, chargement) pour comprendre les performances
  • 🔌 Serveur API local compatible OpenAI pour connecter des outils externes
  • 🧩 Un seul codebase Flutter, avec support desktop à tester (Windows, macOS, Linux)

Le point différenciant pratique est le serveur HTTP local compatible OpenAI. Une fois un modèle chargé, il suffit d’activer l’option et d’utiliser une base d’URL en localhost pour brancher un client qui parle déjà l’API standard. Cela ouvre des usages concrets : automatisations locales, intégration dans un outil personnel, ou essais d’un workflow « type ChatGPT » sans clé API.

Côté démarrage, l’approche est pragmatique : APK Android prêt à installer, et possibilité de sideloader sur iOS. Pour le desktop, la compilation via Flutter est annoncée comme fonctionnelle, mais l’expérience peut varier selon la machine et nécessite encore des retours terrain.

À retenir : c’est une option directe pour qui veut un chat IA local, une gestion de modèles GGUF simplifiée et une passerelle API locale, tout en gardant la maîtrise des données et du fonctionnement hors ligne.

Publications similaires

Laisser un commentaire