Geeek.org • Blog Geek & High Tech 100% Indépendant

On y est, c'est officiel. Microsoft sort la calculette et met fin à un modèle économique qu'il n'arrivait plus à tenir. À partir du 1er juin 2026, GitHub Copilot abandonne le forfait illimité au profit d'une facturation à l'usage, calculée en tokens[1]. Je m'attendais à ce virage depuis des mois en voyant la dérive des modes agentiques, mais le choc va être brutal pour beaucoup d'équipes, en particulier celles qui ont pris goût à Claude Opus.

Pourquoi GitHub ferme le robinet

Le pitch officiel de Mario Rodriguez, directeur produit de GitHub, tient en une phrase : aujourd'hui, une simple question dans Copilot Chat et une session de codage agentique de trois heures coûtent la même chose à l'utilisateur, mais pas du tout à GitHub[2]. Et pendant ce temps, c'est Microsoft qui absorbait la différence.

Copilot n'est plus le petit assistant d'autocomplétion sympa qu'il était en 2022. C'est devenu une plateforme avec des agents qui parsent l'intégralité d'un repo et consomment des centaines de milliers de tokens pour livrer une seule fonctionnalité. Le coût d'inférence d'une session agentique de plusieurs heures dépasse largement les 19 ou 39 dollars d'un abonnement mensuel[3]. Cursor, Windsurf, Devin, tout le monde a déjà revu sa copie ces derniers mois.

Le nouveau mécanisme : les GitHub AI Credits

Le système est calqué sur ce que font les API cloud classiques :

1 GitHub AI Credit = 0,01 $ USD[4]

Chaque interaction consomme trois types de tokens : ceux d'entrée (votre prompt, le contexte), ceux de sortie (la réponse générée) et ceux mis en cache (contexte réutilisé d'un tour à l'autre).

Chaque forfait inclut une enveloppe mensuelle d'AI Credits, avec possibilité d'en acheter en plus[5] :

  • Copilot Pro : 10 $/mois, 1000 AI Credits inclus
  • Copilot Pro+ : 39 $/mois, 3900 AI Credits inclus
  • Copilot Business : 19 $/utilisateur/mois, 1900 AI Credits par seat
  • Copilot Enterprise : 39 $/utilisateur/mois, 3900 AI Credits par seat

Pour Business et Enterprise, les crédits sont mutualisés au niveau de l'organisation[6]. Une période promotionnelle de juin à août 2026 booste ces enveloppes à 3000 et 7000 crédits respectivement.

Le cache token : un piège à comprendre

C'est un point critique qui m'a sauté aux yeux en lisant la doc fine, et que GitHub a soigneusement glissé en note de bas de page : le cache token de Copilot ne fonctionne pas pareil pour tous les modèles[4:1]. Pour les modèles OpenAI et Google, c'est le schéma classique à deux niveaux : input plein tarif, cached input à environ 10 % du tarif input.

Pour les modèles Anthropic (Claude Sonnet, Opus), GitHub a transposé le modèle natif de l'API Claude qui est à trois niveaux : input plein tarif, cached input réduit, mais aussi un coût d'écriture du cache supérieur au tarif input normal. Concrètement sur Opus 4.7 : 5 $/Mtok en input, 0,5 $/Mtok en cached input, mais 6,25 $/Mtok pour l'écriture du cache, et 25 $/Mtok en sortie.

Souvenez-vous, je vous avais présenté ce mécanisme de facturation sur mon article dédié à l'optimisation de tokens avec Claude Code.

Le caching ne devient rentable qu'à partir du moment où vous réutilisez plusieurs fois le même contexte. Pour des sessions agentiques longues avec un contexte stable, c'est un levier d'économie majeur. Pour du chat one-shot, ça peut être contre-productif sur les modèles Anthropic. La règle pratique : sur Copilot, les modèles Anthropic sont à privilégier sur les sessions longues et structurées, les modèles OpenAI sur les requêtes courtes.

Ce qui ne change pas

Bonne nouvelle pour ceux qui se servent de Copilot uniquement pour l'autocomplétion : les complétions de code et les suggestions Next Edit restent incluses dans tous les forfaits sans consommer le moindre AI Credit[7]. C'est la fonctionnalité de base, et elle reste gratuite.

Ce qui change vraiment

L'option de repli disparaît. Avant, quand on atteignait sa limite, Copilot pouvait continuer avec un modèle moins cher. Désormais, quand les crédits sont à zéro, l'outil s'arrête[7:1].

La code review Copilot passe sur une architecture agentique qui tourne dans GitHub Actions. Chaque review consommera donc à la fois des AI Credits et des minutes GitHub Actions[8].

Enfin, les plans annuels Pro et Pro+ sont en voie d'extinction. Pour ceux qui sont déjà engagés, les multiplicateurs de requêtes premium vont être revus à la hausse au 1er juin[1:1].

Combien de tokens consomme un développeur par jour ?

C'est LA question que je me suis posée. Et je n'ai pas trouvé de réponse officielle chez GitHub, ce qui est bien pratique pour eux. Côté Claude Code, Anthropic communique des chiffres précis[9] :

  • Coût moyen : environ 13 $ par développeur et par jour actif en déploiement entreprise
  • 90 % des utilisateurs restent sous 30 $ par jour
  • En mensuel : 150 à 250 $ par développeur pour les équipes en API
  • En utilisation intensive : 500 à 2000 $/mois[10]

Sur OpenAI Codex, c'est dans le même ordre : 100 à 200 $ par développeur et par mois en moyenne[11].

Ma projection pour un développeur "normal" en entreprise, hors session agentique lourde : 30 à 50 % du quota inclus dans Copilot Business consommé.
Pour les utilisateurs intensifs des modes Agent et Plan, dépassement probable du quota.
Pour ceux qui utilisent Opus 4.7 en mode agentique, le quota part très vite. C'est précisément pour ça que GitHub a prévu sa période promotionnelle, présentée comme un cadeau de bienvenue mais surtout destinée à éviter une vague de churn dès le premier mois.

Le cas Opus : devenu inutilisable dans Copilot

C'est l'épisode le plus rude de la transition. Claude Opus 4.7 passe d'un multiplicateur promotionnel de 7,5x à 27x au 1er juin 2026[12]. Pour situer, Claude Opus 4.6 était facturé à hauteur de 3 requêtes premium dans l'ancien système[13]. En quelques semaines, on passe d'un modèle accessible à un modèle quasi prohibitif.

Et c'est là que la mécanique devient sournoise. Opus 4.7 est conçu pour raisonner plus longuement, surtout dans les workflows agentiques. Il génère naturellement plus de tokens de sortie qu'un modèle plus léger[13:1]. Le multiplicateur de 27x s'applique donc sur un volume de tokens lui-même plus important. Effet ciseaux garanti sur la facture.

Plusieurs équipes témoignent qu'avec ces tarifs, utiliser Opus en mode agentique revient à brûler en une session ce que coûte un mois entier de Copilot Business[13:2]. Certains soupçonnent une orientation délibérée de Microsoft vers les modèles GPT, dans lesquels la maison mère a des intérêts financiers historiques.

Trois stratégies se dessinent pour ceux qui veulent continuer à exploiter Opus :

  1. Plan with Opus, execute with Sonnet : utiliser Opus uniquement pour la phase de raisonnement, puis basculer sur Sonnet pour l'exécution[12:1]
  2. Garder Opus pour les problèmes vraiment complexes : refactos cross-files, design d'architecture
  3. Migrer vers Claude Code en direct, ce qui n'est pas si simple pour une entreprise

Migrer vers Claude Code en ESN : attention au piège

C'est la question qui revient en boucle sur les threads GitHub. Et il faut tordre le cou à un mythe qui circule dans tous les comparatifs anglo-saxons : les plans Claude Pro à 20 $/mois et Claude Max à 100 ou 200 $/mois sont strictement réservés aux individus. Ils ne sont PAS utilisables en entreprise[14]. Pour une ESN ou n'importe quelle structure qui voudrait déployer Claude Code pour ses équipes, il n'y a pas d'option à 20 $/dev/mois qui débloque Opus.

Les vraies options pour les entreprises

Deux modèles de facturation existent pour Claude Code en contexte professionnel[15] :

  1. Plan Team Premium : abonnement par siège à partir de 5 sièges, avec un budget de tokens partagé qui se reset toutes les 5 heures et toutes les semaines
  2. Plan Enterprise : seat fee facturé annuellement (minimum 20 sièges en self-serve, 50 en deal négocié), sans aucun usage inclus. Chaque token consommé dans Claude Code, Claude chat ou Cowork est facturé séparément aux tarifs API standards par-dessus le coût du siège

Le point critique pour les ESN : sur le plan Enterprise, vous payez le siège ET les tokens, sans franchise[16]. Pour Opus 4.7 en mode agentique, on parle de 5 $/Mtok en entrée et 25 $/Mtok en sortie. Si vos développeurs poussent du contexte de 200K tokens dans des sessions multi-fichiers, la facture grimpe vite.

Simulation chiffrée pour un développeur Claude Code Enterprise en utilisation intensive sur Opus :

  • Tokens consommés : environ 13 $/jour, soit 280 $/mois[9:1]
  • Auquel s'ajoute le seat fee Enterprise
  • Coût total réel par développeur : 350 à 450 $/mois sur Claude Code Enterprise

À mettre en regard de Copilot Business à 19 $/siège/mois plus dépassement de quota. Ce n'est plus du tout la même équation économique.

Pour les petites ESN sous le seuil des 20 sièges Enterprise, le Team Premium reste l'option par défaut, avec un quota partagé qui peut être consommé très vite si quelques power users tapent fort dessus[17].

Le scénario hybride réaliste

C'est ce que je vois émerger dans la pratique : garder Copilot pour l'autocomplétion et l'intégration GitHub, ajouter Claude Code en parallèle pour les tâches agentiques complexes[18]. Pour une ESN qui voudrait équiper ses développeurs avec les deux outils, comptez 250 à 400 $/dev/mois en stack hybride avec usage modéré d'Opus.

Pour un développeur senior en ESN qui facture sa journée plusieurs centaines d'euros à ses clients, c'est largement amortissable. Mais cela nécessite un vrai cas business. Et pour les juniors ou les développeurs en délivery sur des tâches répétitives, Copilot seul est probablement suffisant.

La course aux modèles n'est pas terminée

Avant de figer une stratégie d'outillage sur six mois, gardons une chose en tête : aujourd'hui Opus est devant sur certaines tâches, mais cette domination peut basculer en une semaine. Anthropic a sorti Claude Opus 4.7 le 16 avril 2026 et OpenAI a riposté avec GPT-5.5 sept jours plus tard, le 23 avril[19].

Les classements changent en permanence : Opus 4.7 mène sur SWE-bench Pro à 64,3 % contre 58,6 % pour GPT-5.5[20], mais GPT-5.5 écrase Opus 4.7 sur Terminal-Bench 2.0 à 82,7 % contre 69,4 %[19:1]. Selon que vous faites du multi-fichiers ou du terminal-heavy, le gagnant n'est pas le même.

Et il y a un paramètre dont on parle peu : l'efficience en tokens devient aussi importante que la qualité brute. GPT-5.5 consomme 72 % de tokens en moins qu'Opus 4.7 pour des tâches équivalentes[21]. Sur une facturation à l'usage comme celle qui arrive dans Copilot, cette différence se traduit directement en coût réel par tâche complétée.

Et puis il y a le côté open-weight : MiniMax M2.5 atteint 80,2 % sur SWE-bench Verified pour 1/20e du prix d'Opus, et Gemini 3.1 Pro fait du 80,6 % à moitié prix[22]. La pression sur les modèles propriétaires est réelle.

Ce que je vous conseille : éviter de se marier avec un modèle. La bonne stratégie en 2026 c'est de garder une infrastructure agnostique du modèle, capable de basculer rapidement quand le rapport qualité/prix bouge.

La fuite du code de Claude Code : un signal pour Copilot CLI

Le 31 mars 2026, le code source complet de Claude Code a fuité publiquement sur npm. La cause est lamentablement banale : Anthropic utilise Bun comme bundler, qui génère des source maps par défaut, et quelqu'un a oublié d'ajouter *.map au .npmignore. Un fichier .map de 59,8 Mo dans le package public référençait une archive zip de tout le code TypeScript sur leur bucket R2 Cloudflare[23].

512 000 lignes de TypeScript, 1900 fichiers, 44 feature flags cachés, tout est sorti[24]. Anthropic a confirmé la fuite tout en précisant qu'aucune donnée client n'était exposée. Au-delà de l'aspect rocambolesque, ce que la fuite révèle sur l'architecture réelle de Claude Code est une mine d'or pour les concurrents :

  • KAIROS : un mode démon autonome jamais annoncé publiquement, qui permet à Claude Code de tourner en tâche de fond et de consolider sa mémoire pendant que l'utilisateur est inactif[23:1]
  • Architecture multi-agents : un coordinateur qui dispatche les sous-tâches à des agents spécialisés
  • autoDream : un sous-agent qui retravaille silencieusement en arrière-plan les tâches précédemment effectuées
  • Context engineering : tout le mécanisme de gestion mémoire qui fait la qualité réelle de Claude Code

La conclusion qui ressort des analyses techniques est limpide : Claude Code n'est pas une couche au-dessus d'un LLM, c'est un environnement complet de développement avec ses tools, son orchestration et son moteur de mémoire.

Alors la question qui tue : est-ce que Copilot CLI va devenir plus puissant grâce à cette fuite ? Probablement, mais pas frontalement. Microsoft ne va pas copier-coller du code Anthropic, ce serait une bombe juridique. En revanche, les patterns architecturaux sont désormais publics et inspirables. À mon avis, on aura un Copilot CLI nettement plus mature d'ici fin 2026, avec des modes agentiques qui s'inspirent ouvertement de ce qu'on a vu dans le code fuité. L'avance technologique d'Anthropic est moins une question de modèle que d'ingénierie autour du modèle. Ce qui est rattrapable.

Petite mise en garde : si vous voyez circuler des repos GitHub prétendant héberger le code de Claude Code, ne les compilez surtout pas. Le timing de la fuite a coïncidé avec une attaque sur la supply chain npm via le package axios, et plusieurs packages malicieux ont été publiés dans les heures qui ont suivi[25].

Recommandations pour préparer le 1er juin

Voici la check-list que je me suis faite pour la transition.

Avant le 1er juin :

  • Ouvrir l'aperçu de facture prévisionnelle disponible dans Billing Overview depuis début mai
  • Identifier les power users qui utilisent massivement les modes agentiques
  • Mettre en place un suivi par modèle pour comprendre où va vraiment le budget

Stratégie d'usage :

  • Définir un modèle par défaut économique (GPT-5 mini ou Gemini Flash) pour les tâches simples
  • Réserver Opus et GPT-5.4 aux problèmes complexes uniquement
  • Exploiter le caching de contexte sur les sessions longues, mais attention aux modèles Anthropic qui facturent l'écriture du cache plus cher que l'input normal
  • Plafonner les itérations agentiques pour éviter les boucles à 47 retries qui transforment un fix à 0,50 $ en facture à 30 $[10:1]

Côté achats :

  • Mutualiser les AI Credits au niveau du pool d'entreprise[26]
  • Négocier les remises au volume avec votre commercial GitHub

En conclusion

La récréation est terminée. GitHub Copilot reste un outil puissant, mais il va falloir apprendre à l'utiliser avec discernement, comme on surveille ses requêtes API en production. Le passage à la facturation au token n'est pas une mauvaise nouvelle en soi, c'est un alignement nécessaire entre le prix payé et la valeur réellement consommée. Ce qui pose problème, ce sont les multiplicateurs agressifs sur certains modèles comme Opus.

Attention quand même au mirage Claude Code en contexte entreprise. Les tarifs grand public à 20 ou 100 $/mois ne s'appliquent qu'aux indépendants. Pour une ESN, c'est obligatoirement du Team Premium ou de l'Enterprise avec consommation API au token par-dessus le siège, et la facture finale dépasse souvent celle de Copilot. L'herbe n'est pas forcément plus verte ailleurs.

Entre la course aux modèles qui s'accélère et la fuite du code de Claude Code qui va probablement booster les CLI concurrents dans les mois qui viennent, le paysage de fin 2026 ne ressemblera peut-être plus à celui d'aujourd'hui. La bonne stratégie n'est pas de choisir le meilleur outil, c'est de garder la flexibilité de changer rapidement.

Pour ma part, je pense que la combinaison gagnante à court terme reste Copilot pour l'autocomplétion et le contexte GitHub, plus Claude Code en terminal pour les tâches lourdes, à condition de bien dimensionner la consommation. Mais je garde un œil sur Copilot CLI, sur les modèles open-weight comme MiniMax M2.5 ou GLM 5, et sur la prochaine génération de Gemini. L'avantage concurrentiel d'un outil de codage IA se mesure désormais en semaines, pas en années.

N'hésitez pas à venir partager votre retour sur le serveur Discord Geeek.


Pour aller plus loin, mes autres analyses sur GitHub Copilot : Visualiser l'impact de GitHub Copilot dans votre entreprise avec PowerBI et Mesurer les gains de productivité après le déploiement de GitHub Copilot.


Sources


  1. GitHub Blog, « GitHub Copilot is moving to usage-based billing », avril 2026. https://github.blog/news-insights/company-news/github-copilot-is-moving-to-usage-based-billing/ ↩︎ ↩︎

  2. Coin Academy, « Microsoft ferme le buffet IA de GitHub Copilot : facturation à l'usage dès juin 2026 », avril 2026. https://coinacademy.fr/actu/microsoft-ferme-buffet-ia-github-copilot-facturation-usage-juin-2026/ ↩︎

  3. L'Usine Digitale, « GitHub Copilot passe à la facturation à l'usage pour répondre à l'explosion des coûts de l'IA générative », avril 2026. https://www.usine-digitale.fr/logiciels-applications/github/github-copilot-passe-a-la-facturation-a-lusage.html ↩︎

  4. GitHub Docs, « Models and pricing for GitHub Copilot ». https://docs.github.com/en/copilot/reference/copilot-billing/models-and-pricing ↩︎ ↩︎

  5. IT Pro, « Everything you need to know about the GitHub Copilot pricing changes », avril 2026. https://www.itpro.com/software/development/github-copilot-pricing-changes-usage-based-billing-explained ↩︎

  6. Windows Forum, « GitHub Copilot AI Credits: Usage-Based Billing Starts June 1, 2026 », avril 2026. https://windowsforum.com/threads/github-copilot-ai-credits-usage-based-billing-starts-june-1-2026.415470/ ↩︎

  7. ITdaily, « GitHub Copilot facturera à partir de juin sur la base de la consommation de tokens », avril 2026. https://itdaily.fr/nouvelles/cloud/github-copilot-facturera-a-partir-de-juin-sur-la-base-de-la-consommation-de-tokens/ ↩︎ ↩︎

  8. GitHub Community Discussion #192948, « GitHub Copilot is moving to usage-based billing ». https://github.com/orgs/community/discussions/192948 ↩︎

  9. Anthropic, « Manage costs effectively », Claude Code Documentation. https://code.claude.com/docs/en/costs ↩︎ ↩︎

  10. Morph, « The Real Cost of AI Coding in 2026: Pricing, Token Waste, and How to Cut It », avril 2026. https://www.morphllm.com/ai-coding-costs ↩︎ ↩︎

  11. OpenAI Help Center, « Codex rate card ». https://help.openai.com/en/articles/20001106-codex-rate-card ↩︎

  12. MindStudio, « GitHub Copilot's New Multiplier Table: 5 Models That Just Got Dramatically More Expensive », avril 2026. https://www.mindstudio.ai/blog/github-copilot-new-multiplier-table-price-hikes ↩︎ ↩︎

  13. GitHub Community Discussion #192814, « GitHub Copilot Claude Opus 4.7 pricing not correct ». https://github.com/orgs/community/discussions/192814 ↩︎ ↩︎ ↩︎

  14. Anthropic Help Center, « What is the Pro plan? ». https://support.claude.com/en/articles/8325606-what-is-the-pro-plan ↩︎

  15. Anthropic Help Center, « What is the Enterprise plan? ». https://support.claude.com/en/articles/9797531-what-is-the-enterprise-plan ↩︎

  16. Verdent Guides, « Claude Code Pricing 2026: Plans, Token Costs, and Real Usage Estimates ». https://www.verdent.ai/guides/claude-code-pricing-2026 ↩︎

  17. Finout, « Claude Pricing in 2026 for Individuals, Organizations, and Developers ». https://www.finout.io/blog/claude-pricing-in-2026-for-individuals-organizations-and-developers ↩︎

  18. NxCode, « Cursor vs Claude Code vs GitHub Copilot 2026: The Ultimate Comparison », avril 2026. https://www.nxcode.io/resources/news/cursor-vs-claude-code-vs-github-copilot-2026-ultimate-comparison ↩︎

  19. Digital Applied, « GPT-5.5 vs Claude Opus 4.7: Benchmarks & Pricing », avril 2026. https://www.digitalapplied.com/blog/gpt-5-5-vs-claude-opus-4-7-frontier-comparison ↩︎ ↩︎

  20. DataCamp, « Claude Opus 4.7 vs GPT-5.5: Which Frontier Model Is Best? », avril 2026. https://www.datacamp.com/blog/gpt-5-5-vs-claude-opus-4-7 ↩︎

  21. MindStudio, « GPT-5.5 vs Claude Opus 4.7: Real-World Coding Performance Compared », avril 2026. https://www.mindstudio.ai/blog/gpt-55-vs-claude-opus-47-coding-comparison ↩︎

  22. Morph, « Best AI for Coding (2026): Every Model Ranked by Real Benchmarks », mars 2026. https://www.morphllm.com/best-ai-model-for-coding ↩︎

  23. VentureBeat, « Claude Code's source code appears to have leaked: here's what we know », avril 2026. https://venturebeat.com/technology/claude-codes-source-code-appears-to-have-leaked-heres-what-we-know ↩︎ ↩︎

  24. Claudefast, « Claude Code Source Leak: Everything Found (2026) ». https://claudefa.st/blog/guide/mechanics/claude-code-source-leak ↩︎

  25. Zscaler ThreatLabz, « Anthropic Claude Code Leak », avril 2026. https://www.zscaler.com/blogs/security-research/anthropic-claude-code-leak ↩︎

  26. LeMagIT, « GitHub Copilot : ce que la facturation à l'usage va changer », avril 2026. https://www.lemagit.fr/actualites/366642367/GitHub-Copilot-ce-que-la-facturation-a-lusage-va-changer ↩︎


Vous êtes correctement abonné à Geeek.org
Bienvenue ! Vous êtes correctement connecté.
Parfait ! Vous êtes correctement inscrit.
Votre lien a expiré
Vérifiez vos emails et utiliser le lien magique pour vous connecter à ce site