|

OpenCode Manager : piloter OpenCode depuis mobile et navigateur avec Git, chat temps reel et memoire persistante

https://chriswritescode-dev.github.io/opencode-manager/

https://github.com/chriswritescode-dev/opencode-manager

📌 OpenCode Manager transforme OpenCode en interface web mobile-first utilisable partout, avec un pilotage complet des agents IA, de l’edition de fichiers, du Git et des flux de travail quotidiens sans rester bloque sur une machine locale unique.

OpenCode Manager apporte une couche d’orchestration pratique autour d’OpenCode quand l’objectif est de continuer a coder et superviser des agents depuis un smartphone, une tablette ou un navigateur secondaire. L’outil evite de multiplier les scripts maison pour l’authentification, le streaming des reponses, la gestion des depots et la navigation dans les fichiers. L’interface est concue pour rester fluide sur petit ecran, tout en conservant les fonctions indispensables pour avancer sur un vrai projet: consulter les changements, ouvrir une vue diff lisible, lancer des commandes, suivre les etapes d’un plan, puis revenir dans le chat sans perdre le contexte.

Au quotidien, la valeur se voit surtout quand plusieurs taches tournent en parallele. Un depot peut rester en phase d’exploration pendant qu’un autre est en correction rapide, avec des worktrees et une gestion multi-repo directement depuis la meme interface. Le support Git inclut les operations utiles dans un cycle court: navigation des branches, gestion des commits, preparation de pull requests, lecture unifiee des diffs avec numerotation de lignes. Ce format reduit la friction pour verifier un patch depuis mobile, valider une intention de modification et relancer un agent sans revenir devant un poste fixe.

Le module fichiers couvre les actions qui prennent du temps dans une interface minimaliste: arborescence de dossiers, creation, renommage, suppression, consultation avec coloration syntaxique et export ZIP. Pour des projets actifs, cela permet de depanner rapidement un fichier de configuration, modifier un prompt systeme, ajuster un script de build ou verifier une variable d’environnement en quelques gestes. Le chat fonctionne en streaming SSE avec mentions @file, commandes slash et modes Plan/Build, ce qui favorise un pilotage concret des actions plutot qu’une simple conversation textuelle de haut niveau.

L’installation reste directe: cloner le depot, copier .env.example vers .env, lancer docker-compose up -d, puis ouvrir l’interface web locale. Le premier demarrage demande la creation d’un compte admin, ce qui pose une base claire pour l’acces. Pour une exposition LAN ou distante, la configuration passe par des variables dediees, notamment les origines de confiance et les cookies securises en HTTPS. Ce choix garde un demarrage rapide en local tout en laissant une trajectoire propre vers un usage plus robuste en production.

Points cles

  • 📱 Interface mobile-first reelle: PWA installable, navigation adaptee iOS, clavier et gestes mieux geres que dans une UI desktop reduite.
  • 🧠 Memoire persistante: connaissance projet, recherche semantique, etat de planification et compaction pour garder un contexte exploitable.
  • 🔀 Git operationnel en continu: multi-repo, worktrees, SSH, diffs unifies et creation de PR sans sortir du flux.
  • 🎙️ Voix integree: text-to-speech et speech-to-text via navigateur ou endpoint compatible OpenAI.
  • 🧩 Ecosysteme extensible: serveurs MCP locaux/distants, templates preconfigures, selection de modeles et fournisseurs IA.

La partie IA est pensee pour ne pas enfermer le setup dans un seul fournisseur. Le choix du modele et la configuration provider sont exposes, avec en plus des parcours OAuth pour des integrations comme Anthropic ou GitHub Copilot. Cette flexibilite est utile quand il faut arbitrer entre cout, vitesse, qualite de code et contraintes de confidentialite. Les agents personnalisables par prompts systeme permettent aussi de specialiser le comportement par projet: revue stricte, generation orientee tests, refactorisation progressive, documentation, ou verification securite.

OpenCode Manager inclut egalement une couche audio et une compatibilite MCP qui peuvent changer la facon de travailler sur des sessions longues. La dictée et la lecture vocale aident a piloter ou relire en contexte de mobilite, tandis que MCP ouvre la porte a des outils externes sans bricoler a chaque fois des ponts ad hoc. En pratique, cela permet d’injecter des capacites additionnelles dans les sessions d’agents tout en gardant une interface unifiee pour suivre l’historique et les decisions prises.

Sur la confidentialite et la retention, l’approche est pragmatique: execution locale possible via Docker, controle des variables d’environnement, authentification explicite, et persistance de la memoire projet pour eviter de re-exposer les memes informations a chaque session. L’utilisateur garde la main sur l’empreinte de donnees, le mode de deploiement et les fournisseurs connectes. Quand le besoin est strictement local, le setup peut rester isole sur machine ou reseau interne; quand le besoin est collaboratif, l’ouverture distante se fait avec des garde-fous de configuration plus explicites.

Les contraintes techniques restent raisonnables: environnement Docker requis pour un demarrage standard, navigateur moderne pour l’experience web/PWA, et une attention particuliere aux parametres de securite si exposition internet. Il n’y a pas d’exigence GPU specifique pour l’interface elle-meme; la charge depend surtout des modeles et services IA connectes en arriere-plan. Cette separation entre couche interface/orchestration et couche inference permet d’adapter l’outil a des contextes tres differents, du poste personnel a une instance de travail continue.

Concretement, OpenCode Manager est pertinent pour garder un pilotage permanent d’OpenCode avec un niveau de controle proche d’un environnement desktop complet, mais avec une ergonomie enfin exploitable sur mobile. C’est un choix solide pour centraliser chat agentique, operations Git, exploration de code et memoire de projet dans une seule surface de travail, sans sacrifier la flexibilite de deploiement ni l’ouverture de l’ecosysteme IA.

Publications similaires

Laisser un commentaire