
ajout de nouveaux modèles d'IA et élargissement de l'accès
Zed s’est fait une place dans l’écosystème des éditeurs de code en misant sur deux promesses : une expérience de développement ultra-fluide et collaborative, et une intégration native de l’intelligence artificielle pour accélérer la productivité. Dans un secteur dominé par Visual Studio Code et JetBrains, Zed a su séduire une communauté croissante grâce à sa rapidité, sa simplicité et son approche « cloud-native » du code.
Mais l’IA embarquée a un coût, et ce coût est désormais au centre de la stratégie de Zed. Alors que les utilisateurs étaient jusqu’ici facturés par nombre de prompts envoyés aux modèles de langage, la startup annonce une bascule vers une tarification au nombre de tokens consommés.
Développé par les créateurs de l'éditeur de code Atom et les créateurs du générateur d'analyseur syntaxique Tree-sitter, Zed est écrit en Rust et disponible sous licence GPL. L'équipe affirme que Zed est éditeur collaboratif très performant offrant les fonctionnalités essentielles que l'on attend d'un éditeur moderne. Il est également doté d'un moteur de rendu accéléré par le GPU pour aider les développeurs à créer des logiciels beaucoup plus rapidement
Pourquoi le modèle « prompt-based » n’était plus viable
Facturer par prompt partait d’une bonne intention : proposer un quota clair, compréhensible et facilement commercialisable. Mais cette simplicité cachait une asymétrie économique : toutes les requêtes ne se valent pas. Un simple correctif de syntaxe pèse peu en calcul, alors qu’une analyse d’un projet multi-fichiers peut engloutir des milliers de tokens. Résultat : l’utilisateur payait la même chose pour deux requêtes, mais Zed supportait des coûts radicalement différents.
L’entreprise a reconnu que ses factures liées aux LLM étaient devenues son plus gros poste de dépense, au point de mettre en péril la viabilité du service. En d’autres termes, chaque nouvel abonné risquait d’aggraver le déficit au lieu de contribuer à l’équilibre.

Des crédits inclus et une facturation proportionnelle
Le plan Pro passe désormais à 10 $ par mois, contre 20 $ auparavant. Mais attention : il inclut seulement 5 $ de crédits utilisables pour de l’IA. Au-delà, chaque utilisateur sera facturé au prix public des modèles, augmenté de 10 % pour couvrir l’infrastructure et le support. Cela signifie que le coût final dépendra directement de la consommation réelle en tokens, et du modèle choisi (GPT-5, Gemini, Claude, etc.).
Une flexibilité revendiquée
Zed propose plusieurs alternatives pour garder le contrôle sur ses coûts :
- Apporter sa propre clé API (OpenAI, Anthropic, Google, etc.), pour payer directement le fournisseur.
- Utiliser des modèles locaux via Ollama, pour limiter la dépendance au cloud.
- Passer par l’Agent Client Protocol (ACP) afin de connecter des agents externes comme Gemini CLI ou Claude Code.
- Ou encore désactiver totalement l’IA, pour revenir à un usage pur de l’éditeur.

Avantages attendus et nouveaux risques
Alignement coûts / usages
En facturant au token, Zed espère enfin aligner ses revenus sur ses coûts réels. Les utilisateurs légers pourraient même y trouver un avantage, en payant moins que dans l’ancien modèle basé sur les prompts.
Meilleure lisibilité pour les fournisseurs
Le nouveau système rend plus facile l’intégration de nouveaux modèles. Plutôt que de jongler avec des quotas de prompts hétérogènes, Zed applique une règle claire et universelle : prix du fournisseur + 10 %.
Mais une prévisibilité mise à l’épreuve
Le principal écueil reste la difficulté pour l’utilisateur de prédire sa facture. Les tokens sont une métrique technique et abstraite, peu intuitive pour beaucoup de développeurs. Sans outils de suivi et d’alerte, certains risquent de voir leurs coûts exploser.
Ce que cela dit du futur des éditeurs de code IA
Le changement de Zed illustre un mouvement plus large : l’ère des éditeurs « boostés par l’IA » gratuits ou illimités touche à sa fin. La puissance de calcul a un prix, et ce prix doit être assumé par les utilisateurs finaux.
Cette évolution marque aussi une montée en maturité. L’éditeur de code devient moins un logiciel monolithique et davantage une plateforme orchestratrice où chaque développeur choisit son fournisseur de LLM, sa méthode de facturation et son degré de dépendance au cloud.
Enfin, ce choix met en lumière une tension : les développeurs veulent des outils rapides, puissants et abordables, mais les éditeurs doivent survivre dans un écosystème où chaque requête IA peut coûter cher. La transparence, la pédagogie et la modularité seront déterminantes pour éviter un rejet de la communauté.
Le calendrier de migration
Les nouveaux utilisateurs sont déjà soumis à ce modèle, tandis que les abonnés Pro actuels bénéficient d’une transition progressive. La bascule complète est prévue pour le 17 décembre 2025.

VS Code : gratuité affichée, dépendance cachée
Visual Studio Code reste l’éditeur le plus utilisé au monde. Sa force est d’être gratuit, mais son écosystème repose sur des extensions, notamment GitHub Copilot, qui est lui un service payant.
Copilot fonctionne déjà selon un modèle hybride : l’utilisateur paie un forfait mensuel (10 $ pour les étudiants, 19 $ pour les pros), et Microsoft assume derrière des coûts de calcul colossaux. Ce modèle reste basé sur l’illusion du forfait illimité, même si Microsoft introduit déjà des restrictions implicites (limitation de contexte, priorisation selon la charge).
Comparé à Zed, VS Code offre une expérience plus simple et prévisible pour l’utilisateur, mais probablement moins viable à long terme si les coûts des LLM continuent de grimper. La question est de savoir quand – pas si – Microsoft sera forcé d’ajuster ses prix ou de passer à une facturation plus granulaire.
JetBrains : un modèle premium qui pourrait basculer
JetBrains a toujours joué sur un positionnement « haut de gamme », avec des IDE payants (IntelliJ, PyCharm, Rider, etc.). Leur offre AI Assistant est intégrée aux abonnements mais fonctionne encore sur une logique de crédit mensuel plutôt que de facturation directe au token.
En pratique, cela signifie que JetBrains a déjà préparé le terrain : les utilisateurs disposent d’un quota d’IA inclus, et au-delà, ils doivent attendre le mois suivant. On est donc déjà dans une logique intermédiaire entre le « tout illimité » et la transparence radicale de Zed.
La bascule complète vers le token pourrait arriver rapidement, car JetBrains, contrairement à Microsoft, ne dispose pas d’une infrastructure cloud colossale pour subventionner les usages.
Cursor : l’outsider IA qui repousse les limites
Cursor, souvent présenté comme un « VS Code repensé pour l’IA », mise sur une intégration encore plus poussée de l’assistance intelligente. Contrairement à Zed, Cursor a choisi de séduire d’abord par la promesse d’un usage massif et quasi illimité.
Mais cette stratégie attire déjà des critiques : derrière l’interface fluide, Cursor dépend fortement des API OpenAI, et donc de coûts variables qu’il ne maîtrise pas totalement. Comme Zed, il sera tôt ou tard confronté à la nécessité de facturer plus finement l’usage, sous peine de voir ses marges s’évaporer.
Trois visions qui convergent vers un même dilemme
En comparant ces approches, un schéma se dessine :
- Zed a choisi la transparence radicale et le modèle économique durable, au risque de perdre des utilisateurs rebutés par la complexité.
- VS Code capitalise sur l’effet de masse et la subvention par Microsoft, mais son modèle illimité pourrait devenir intenable.
- JetBrains avance à pas mesurés avec un système de crédits, plus pédagogique mais encore limité.
- Cursor joue la carte de l’expérience utilisateur fluide, mais reporte l’inévitable : facturer plus précisément les usages lourds.
Conclusion : un test grandeur nature pour la durabilité de l’IA embarquée
Avec ce virage, Zed assume un choix courageux mais risqué. S’il parvient à convaincre ses utilisateurs que la tarification au token est juste, prévisible et flexible, il pourrait se positionner comme un modèle de durabilité économique dans l’édition de code IA.
À l’inverse, si les coûts deviennent trop opaques ou si la communauté perçoit ce changement comme une régression, Zed pourrait fragiliser la confiance qu’il avait réussi à bâtir.
Dans tous les cas, ce basculement sera scruté de près par l’ensemble du marché. Car derrière Zed, c’est toute une question qui se dessine : qui paiera réellement la facture de l’intelligence artificielle dans les outils du quotidien des développeurs ?
Source : annonce de Zed
Et vous ?




Vous avez lu gratuitement 516 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.