Zed s’est fait une place dans l’écosystème des éditeurs de code en misant sur deux promesses : une expérience de développement ultra-fluide et collaborative, et une intégration native de l’intelligence artificielle pour accélérer la productivité. Dans un secteur dominé par Visual Studio Code et JetBrains, Zed a su séduire une communauté croissante grâce à sa rapidité, sa simplicité et son approche « cloud-native » du code.Mais l’IA embarquée a un coût, et ce coût est désormais au centre de la stratégie de Zed. Alors que les utilisateurs étaient jusqu’ici facturés par nombre de prompts envoyés aux modèles de langage, la startup annonce une bascule vers une tarification au nombre de tokens consommés.
Développé par les créateurs de l'éditeur de code Atom et les créateurs du générateur d'analyseur syntaxique Tree-sitter, Zed est écrit en Rust et disponible sous licence GPL. L'équipe affirme que Zed est éditeur collaboratif très performant offrant les fonctionnalités essentielles que l'on attend d'un éditeur moderne. Il est également doté d'un moteur de rendu accéléré par le GPU pour aider les développeurs à créer des logiciels beaucoup plus rapidement
Pourquoi le modèle « prompt-based » n’était plus viable
Facturer par prompt partait d’une bonne intention : proposer un quota clair, compréhensible et facilement commercialisable. Mais cette simplicité cachait une asymétrie économique : toutes les requêtes ne se valent pas. Un simple correctif de syntaxe pèse peu en calcul, alors qu’une analyse d’un projet multi-fichiers peut engloutir des milliers de tokens. Résultat : l’utilisateur payait la même chose pour deux requêtes, mais Zed supportait des coûts radicalement différents.
L’entreprise a reconnu que ses factures liées aux LLM étaient devenues son plus gros poste de dépense, au point de mettre en péril la viabilité du service. En d’autres termes, chaque nouvel abonné risquait d’aggraver le déficit au lieu de contribuer à l’équilibre.
Des crédits inclus et une facturation proportionnelle
Le plan Pro passe désormais à 10 $ par mois, contre 20 $ auparavant. Mais attention : il inclut seulement 5 $ de crédits utilisables pour de l’IA. Au-delà, chaque utilisateur sera facturé au prix public des modèles, augmenté de 10 % pour couvrir l’infrastructure et le support. Cela signifie que le coût final dépendra directement de la consommation réelle en tokens, et du modèle choisi (GPT-5, Gemini, Claude, etc.).
Une flexibilité revendiquée
Zed propose plusieurs alternatives pour garder le contrôle sur ses coûts :
- Apporter sa propre clé API (OpenAI, Anthropic, Google, etc.), pour payer directement le fournisseur.
- Utiliser des modèles locaux via Ollama, pour limiter la dépendance au cloud.
- Passer par l’Agent Client Protocol (ACP) afin de connecter des agents externes comme Gemini CLI ou Claude Code.
- Ou encore désactiver totalement l’IA, pour revenir à un usage pur de l’éditeur.
Avantages attendus et nouveaux risques
Alignement coûts / usages
En facturant au token, Zed espère enfin aligner ses revenus sur ses coûts réels. Les utilisateurs légers pourraient même y trouver un avantage, en payant moins que dans l’ancien modèle basé sur les prompts.
Meilleure lisibilité pour les fournisseurs
Le nouveau système rend plus facile l’intégration de nouveaux modèles. Plutôt que de jongler avec des quotas de prompts hétérogènes, Zed applique une règle claire et universelle : prix du fournisseur + 10 %.
Mais une prévisibilité mise à l’épreuve
Le principal écueil reste la difficulté pour l’utilisateur de prédire sa facture. Les tokens sont une métrique technique et abstraite, peu intuitive pour beaucoup de développeurs. Sans outils de suivi et d’alerte, certains risquent de voir leurs coûts exploser.
Ce que cela dit du futur des éditeurs de code IA
Le changement de Zed illustre un mouvement plus large : l’ère des éditeurs « boostés par l’IA » gratuits ou illimités touche à sa fin. La puissance de calcul a un prix, et ce prix doit être assumé par les utilisateurs finaux.
Cette évolution marque aussi une montée en maturité. L’éditeur de code devient moins un logiciel monolithique et davantage une plateforme orchestratrice où chaque développeur choisit son fournisseur de LLM, sa méthode de facturation et son degré de dépendance au cloud.
Enfin, ce choix met en lumière une tension : les développeurs veulent des outils rapides, puissants et abordables, mais les éditeurs doivent survivre dans un écosystème où chaque requête IA peut coûter cher. La transparence, la pédagogie et la modularité seront déterminantes pour éviter un rejet de la communauté.
Le calendrier de migration
Les nouveaux utilisateurs sont déjà soumis à ce modèle, tandis que les abonnés Pro actuels bénéficient d’une transition progressive. La bascule complète est prévue pour le 17 décembre 2025.
VS Code : gratuité affichée, dépendance cachée
Visual Studio Code reste l’éditeur le plus utilisé au monde. Sa force est d’être gratuit, mais son écosystème repose sur des extensions, notamment GitHub Copilot, qui est lui un service payant.
Copilot fonctionne déjà selon un modèle hybride : l’utilisateur paie un forfait mensuel (10 $ pour les étudiants, 19 $ pour les pros), et Microsoft assume derrière des coûts de calcul...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.