running-claude-code-via-litellm-copilot
par xixu-merunning-claude-code-via-litellm-copilot explique comment faire passer Claude Code par un proxy LiteLLM local vers GitHub Copilot, aligner ANTHROPIC_BASE_URL et les noms de modèles, vérifier le trafic localhost et résoudre les problèmes 401/403, model-not-found et de compatibilité du proxy.
Cette skill obtient 78/100, ce qui en fait une fiche solide pour les utilisateurs qui veulent précisément faire transiter Claude Code via un proxy LiteLLM local vers GitHub Copilot. Le dépôt fournit des signaux d’usage clairs, une intention pratique de configuration et de dépannage, ainsi que des réserves explicites indiquant qu’il s’agit d’un contournement avancé plutôt que d’un workflow officiel. En revanche, l’exécution à l’installation demande encore une part d’interprétation manuelle, car aucun script ni aucune commande d’installation ne sont fournis.
- Les conditions d’usage sont très claires dès le frontmatter et la section "When To Use", avec des cas de configuration et de dépannage comme model-not-found, l’absence de trafic localhost et les erreurs GitHub 401/403.
- Les indications opérationnelles sont substantielles : la skill détaille des règles de compatibilité essentielles comme l’usage de ANTHROPIC_BASE_URL, la correspondance exacte de ANTHROPIC_MODEL, le comportement d’un jeton d’authentification local non vide et `drop_params: true`.
- Les signaux de confiance sont supérieurs à la moyenne pour une skill centrée sur la documentation, car elle inclut un fichier de notes vérifiées séparé qui distingue les conseils issus d’articles des ajustements resserrés à partir de la documentation LiteLLM.
- L’adoption est moins clé en main qu’elle pourrait l’être : SKILL.md ne contient aucune commande d’installation et le dépôt n’inclut ni scripts, ni règles, ni ressources d’assistance pour réduire les incertitudes de configuration.
- Le workflow est explicitement présenté comme un contournement avancé, sans garantie de prise en charge officielle par GitHub ni de compatibilité à long terme.
Vue d’ensemble de la skill running-claude-code-via-litellm-copilot
La skill running-claude-code-via-litellm-copilot vous aide à mettre en place un workflow proxy bien précis : conserver l’API de type Anthropic attendue par Claude Code, tout en faisant passer les requêtes réelles par un serveur LiteLLM local qui les relaie vers GitHub Copilot. Elle s’adresse surtout aux personnes qui veulent réduire l’usage direct de l’API Anthropic, tester une configuration moins coûteuse ou comprendre pourquoi Claude Code n’atteint pas le backend visé.
À qui cette skill convient le mieux
Cette running-claude-code-via-litellm-copilot skill est particulièrement adaptée :
- aux développeurs qui utilisent déjà Claude Code
- aux utilisateurs à l’aise avec la modification de variables d’environnement et de fichiers de configuration locaux
- à ceux qui comparent un accès direct à Anthropic avec un proxy LiteLLM local
- à toute personne qui débogue des erreurs
401/403,model not foundou des cas où « Claude Code n’envoie rien vers localhost »
Ce n’est pas une introduction pour débutants à Claude Code, LiteLLM ou GitHub Copilot.
Le vrai besoin auquel elle répond
La plupart des utilisateurs ne cherchent pas simplement « un résumé du repo ». Ils veulent une méthode concrète pour :
- faire passer Claude Code par LiteLLM,
- configurer LiteLLM pour viser GitHub Copilot,
- aligner exactement les noms de modèles,
- vérifier que le trafic passe réellement par le proxy,
- corriger rapidement les erreurs d’authentification et de compatibilité les plus courantes.
C’est précisément là que cette skill devient utile.
Ce qui distingue cette skill
Son vrai point fort, c’est qu’elle guide une intégration fragile, et non une simple couche générique de prompting. Elle met l’accent sur des contraintes pratiques qui bloquent souvent l’adoption :
ANTHROPIC_BASE_URLdoit rediriger Claude Code vers LiteLLM- Claude Code attend malgré tout un token Anthropic local non vide
- LiteLLM doit utiliser le schéma de provider
github_copilot/<model> ANTHROPIC_MODELcôté Claude Code doit correspondre exactement àmodel_namedans LiteLLMdrop_params: truecompte pour la compatibilité- l’autorisation GitHub via device flow peut n’apparaître qu’après la première vraie requête
- il faut confirmer le bon fonctionnement en surveillant les logs LiteLLM, et non en supposant que la configuration est correcte
À lire avant de décider de l’installer
Utilisez running-claude-code-via-litellm-copilot si votre vraie question est : « Comment faire fonctionner concrètement ce montage proxy sur ma machine ? » Passez votre chemin si vous avez seulement besoin d’un usage standard de Claude Code, d’une configuration Anthropic directe ou d’une documentation générale sur Copilot.
Comment utiliser la skill running-claude-code-via-litellm-copilot
Installer la skill running-claude-code-via-litellm-copilot
Installez-la depuis le dépôt des skills :
npx skills add https://github.com/xixu-me/skills --skill running-claude-code-via-litellm-copilot
Si votre environnement utilise un autre chargeur de skills, ajoutez la skill depuis :
https://github.com/xixu-me/skills/tree/main/skills/running-claude-code-via-litellm-copilot
Commencez par lire ces fichiers
Pour cette installation de running-claude-code-via-litellm-copilot, commencez par :
skills/running-claude-code-via-litellm-copilot/SKILL.mdskills/running-claude-code-via-litellm-copilot/references/doc-verified-notes.md
Pourquoi cet ordre compte :
SKILL.mddonne le workflow opérationnel et les règles de décision.references/doc-verified-notes.mdprécise ce qui est directement fondé sur l’article et ce qui a été resserré à partir de la documentation LiteLLM, ce qui est important car cette configuration est sensible aux questions de compatibilité.
Comprendre les éléments minimums à aligner
Une configuration réussie suppose en général que quatre éléments soient correctement alignés :
- Claude Code pointé vers LiteLLM via
ANTHROPIC_BASE_URL - une
ANTHROPIC_API_KEYlocale non vide, ou une valeur de token équivalente, pour que Claude Code s’exécute - LiteLLM configuré pour utiliser
github_copilot/<model> - une correspondance exacte du nom du modèle entre Claude Code et LiteLLM
Si un seul de ces éléments est incorrect, le workflow échoue souvent de façon déroutante.
Quelles informations la skill attend de votre part
Pour bien exploiter les indications d’usage de running-claude-code-via-litellm-copilot, fournissez :
- votre OS et votre shell
- si Claude Code est déjà installé et fonctionnel
- si LiteLLM est déjà installé et comment vous le lancez
- votre valeur actuelle de
ANTHROPIC_BASE_URL - le nom du modèle que vous voulez utiliser via Copilot
- le texte exact de l’erreur si l’installation échoue
- si vous acceptez de modifier
~/.claude/settings.jsonou les fichiers de profil du shell
Ces détails permettent à la skill d’adapter les commandes au lieu de deviner.
Transformer un objectif vague en prompt efficace
Prompt faible :
Help me use Claude Code with LiteLLM and Copilot.
Prompt plus solide :
I want Claude Code to send requests to a local LiteLLM proxy on macOS zsh, then forward to GitHub Copilot. Show the minimum config, the environment variables I need, how to set ANTHROPIC_BASE_URL, how to choose the exact ANTHROPIC_MODEL value so it matches LiteLLM model_name, and how to verify traffic in LiteLLM logs before editing persistent files.
Pourquoi c’est mieux :
- le système d’exploitation et le shell sont précisés
- la chaîne de configuration exacte est demandée
- le problème d’alignement des noms de modèles est explicitement mentionné dès le départ
- la demande prévoit une vérification sûre avant toute modification persistante
Workflow recommandé pour une première configuration
Suivez cet ordre plutôt que de tout modifier d’un coup :
- inspecter la configuration actuelle de Claude Code et de LiteLLM
- choisir un seul modèle cible
- configurer LiteLLM avec
github_copilot/<model> - définir
drop_params: truesi nécessaire pour la compatibilité avec les requêtes au format Anthropic - faire pointer Claude Code vers LiteLLM avec
ANTHROPIC_BASE_URL - définir
ANTHROPIC_MODELpour qu’il corresponde exactement àmodel_namedans LiteLLM - lancer une petite requête de test
- surveiller les logs LiteLLM
- terminer l’autorisation GitHub via device flow si elle est demandée
- seulement ensuite, appliquer des changements de configuration persistants
Cet ordre réduit le risque de masquer la vraie panne derrière plusieurs modifications simultanées.
La règle de compatibilité la plus importante
En pratique, la règle la plus utile du dépôt est la suivante : ANTHROPIC_MODEL dans Claude Code doit correspondre exactement à model_name dans LiteLLM.
Ne considérez pas le nom de modèle comme approximatif. Une différence minime mais visuellement proche suffit à casser le routage et à produire des erreurs trompeuses.
Comment vérifier que le proxy fonctionne vraiment
Ne vous arrêtez pas à « la commande s’est exécutée ». Vérifiez bien tous les points suivants :
- Claude Code cible bien votre
ANTHROPIC_BASE_URLlocal - LiteLLM reçoit la requête dans ses logs
- la requête est relayée via le chemin provider GitHub Copilot
- la réponse revient via LiteLLM, et non via un accès direct à Anthropic
S’il n’y a aucun trafic vers localhost, le problème se situe généralement en amont de l’authentification Copilot.
Les pannes courantes que cette skill aide à résoudre
Ce guide running-claude-code-via-litellm-copilot est particulièrement utile pour :
- les erreurs
model not founddues à des noms de modèles non alignés - les
401ou403pendant l’authentification GitHub Copilot - l’absence totale de trafic arrivant jusqu’à LiteLLM
- les cas où Claude Code exige un token Anthropic alors que LiteLLM est le vrai backend
- les problèmes de compatibilité causés par des paramètres de requête non pris en charge
C’est exactement le type de problèmes pour lesquels un prompt générique fait souvent perdre du temps.
Quand utiliser le mode explication ou le mode exécution
La skill source distingue explicitement deux modes :
- mode explication : fournir le plus petit ensemble correct de commandes, fichiers et vérifications
- mode exécution : inspecter la machine active, s’adapter au shell et à l’OS, puis s’arrêter avant toute modification persistante
Cette distinction compte. Si vous voulez une aide concrète, dites-le clairement. Si vous voulez seulement un plan, demandez d’abord un walkthrough non destructif.
Un prompt pratique à réutiliser
Utilisez un prompt de ce type pour invoquer la skill :
Use the running-claude-code-via-litellm-copilot skill. I want a non-destructive setup plan for routing Claude Code through a local LiteLLM proxy to GitHub Copilot on Ubuntu bash. Please inspect the likely config points, show the exact variables and file paths to check, explain the github_copilot/<model> naming rule, call out where ANTHROPIC_MODEL must match LiteLLM model_name exactly, and give a verification checklist using LiteLLM logs before any persistent edits.
FAQ sur la skill running-claude-code-via-litellm-copilot
La skill running-claude-code-via-litellm-copilot convient-elle aux débutants ?
En général, seulement si vous êtes à l’aise avec les proxys locaux, les variables d’environnement et le débogage de configuration. La skill est bien ciblée, mais le workflow lui-même reste avancé et peut échouer pour de nombreuses petites raisons.
Qu’apporte cette skill de plus qu’un prompt classique ?
Un prompt classique peut expliquer l’idée générale. La running-claude-code-via-litellm-copilot skill est plus utile quand vous avez besoin des hypothèses exactes de routage, des premières règles de dépannage et de l’ordre de configuration qui évitent les impasses.
Cette skill garantit-elle la prise en charge de GitHub Copilot ?
Non. Le contenu source présente cela comme un contournement pratique, pas comme un workflow GitHub officiellement garanti. Utilisez-la comme guide d’implémentation concret, pas comme promesse de compatibilité à long terme.
Dans quels cas ne pas utiliser running-claude-code-via-litellm-copilot ?
Ne l’utilisez pas si :
- une configuration Anthropic directe vous convient
- vous ne voulez pas d’un proxy local dans la chaîne
- vous avez besoin d’un chemin d’intégration entreprise officiellement pris en charge
- vous cherchez un onboarding général à Claude Code plutôt que ce schéma de routage spécifique
Est-ce principalement une démarche pour économiser de l’argent ?
La réduction des coûts peut être une motivation, mais ce n’est pas la seule. Beaucoup d’utilisateurs en ont besoin pour contrôler le routage, remplacer le backend ou comprendre pourquoi Claude Code appelle le mauvais endpoint.
Quel est le blocage le plus probable à l’installation ?
Le principal blocage reste l’absence de correspondance exacte entre le nom du modèle dans Claude Code et celui dans LiteLLM. Ensuite viennent généralement les problèmes d’authentification et l’absence de trafic vers localhost.
La skill inclut-elle des scripts ou une automatisation supplémentaire ?
Non, aucun script d’assistance majeur n’apparaît dans l’instantané du dépôt. C’est une skill très orientée guidage : attendez-vous donc à appliquer manuellement les instructions à votre machine et à votre configuration.
Comment améliorer l’usage de la skill running-claude-code-via-litellm-copilot
Partez de votre état actuel, pas de l’état cible
Pour obtenir de meilleurs résultats avec running-claude-code-via-litellm-copilot, indiquez à l’agent ce qui existe déjà :
- les outils installés
- les fichiers de configuration actuels
- les variables d’environnement actuelles
- la commande exacte exécutée
- la sortie d’erreur exacte
Cela évite que l’assistant propose une installation « from scratch » alors que vous avez en réalité besoin de dépannage.
Demandez d’abord une configuration avec un seul modèle
Ne commencez pas avec plusieurs modèles ni avec une demande vague du type « fais tout fonctionner ». Demandez un seul modèle, un seul endpoint et une seule étape de validation. Cela réduit le champ des pannes et rend les logs plus lisibles.
Incluez les chaînes de modèle exactes
Quand vous demandez de l’aide, collez bien les deux valeurs suivantes :
- le
model_namede LiteLLM - le
ANTHROPIC_MODELde Claude Code
C’est le moyen le plus rapide de repérer la casse la plus fréquente.
Demandez un plan qui vérifie avant de modifier
Une bonne formulation est :
Before suggesting persistent edits, give me a temporary test setup and a checklist to confirm Claude Code is reaching LiteLLM and LiteLLM is forwarding to GitHub Copilot.
Cela améliore la sécurité et évite des allers-retours inutiles dans la configuration.
Partagez les logs, pas seulement les symptômes
Mauvais :
It does not work.
Mieux :
Claude Code returns model not found. LiteLLM logs show no localhost request after I set ANTHROPIC_BASE_URL to ...
Encore mieux :
Claude Code returns model not found. My ANTHROPIC_MODEL is X, LiteLLM model_name is Y, and LiteLLM logs show the request arriving but failing after provider routing.
La skill est plus performante lorsque vous fournissez des éléments observables au niveau précis où l’échec se produit.
Demandez à l’agent de séparer la cause racine du correctif
Cette configuration produit souvent des erreurs empilées. Demandez une réponse structurée comme suit :
- cause racine probable
- fichier ou variable exact à inspecter
- correctif minimal
- étape de vérification
Cette structure rend les recommandations plus faciles à exécuter et à auditer.
Utilisez les notes de référence si le comportement semble daté
Si les indications semblent contredire ce que vous observez, renvoyez l’agent vers :
references/doc-verified-notes.md
C’est dans ce fichier que le dépôt distingue les conseils issus de l’article et le comportement LiteLLM actuellement vérifié, notamment la règle de nommage github_copilot/<model>.
N’améliorez qu’après la première requête réussie
Une fois la première requête passée avec succès, vous pourrez ensuite itérer sur :
- l’emplacement de la configuration persistante
- le nettoyage du profil shell
- des valeurs par défaut plus sûres
- le changement de modèle
- une documentation locale plus claire pour votre équipe
N’optimisez pas avant d’avoir confirmé le trafic de bout en bout.
Surveillez ces modes d’échec pendant les itérations
Les erreurs qui reviennent le plus souvent sont :
- modifier plusieurs fichiers de configuration à la fois
- supposer que des noms de modèles approximatifs suffisent
- oublier que Claude Code attend toujours un token Anthropic local non vide
- ne pas consulter les logs LiteLLM
- rendre les changements persistants avant qu’un test temporaire ait réussi
Meilleure façon d’obtenir une réponse de haute qualité avec cette skill
Le meilleur schéma de prompt pour running-claude-code-via-litellm-copilot for Skill Installation est :
Use the running-claude-code-via-litellm-copilot skill to troubleshoot my current setup. I am on [OS/shell]. Claude Code is configured with [values]. LiteLLM is started with [method]. My intended provider route is github_copilot/[model]. My ANTHROPIC_MODEL is [value]. Here are the logs and the exact error. Give me the smallest fix first, then a verification step, and pause before suggesting persistent edits.
Avec ce niveau de contexte, la skill peut produire un guidage réellement utile pour l’installation et adapté à votre machine, au lieu d’un texte de configuration générique.
