running-claude-code-via-litellm-copilot
por xixu-merunning-claude-code-via-litellm-copilot explica cómo enrutar Claude Code mediante un proxy local de LiteLLM hacia GitHub Copilot, alinear ANTHROPIC_BASE_URL y los nombres de modelo, verificar el tráfico en localhost y resolver problemas de 401/403, model-not-found y compatibilidad del proxy.
Esta skill obtiene una puntuación de 78/100, lo que la convierte en una opción sólida dentro del directorio para usuarios que específicamente quieran enrutar Claude Code a través de un proxy local de LiteLLM hacia GitHub Copilot. El repositorio ofrece señales de activación claras, una intención práctica de configuración y resolución de problemas, y advertencias explícitas de que se trata de una solución avanzada alternativa, no de un flujo oficial. Aun así, la ejecución durante la instalación requiere cierta interpretación manual, ya que no incluye scripts ni un comando de instalación.
- Las condiciones de uso están muy claras en el frontmatter y en "When To Use", incluyendo casos de configuración y troubleshooting como model-not-found, ausencia de tráfico en localhost y errores 401/403 de GitHub.
- La guía operativa es sólida: la skill explica reglas clave de compatibilidad, como usar ANTHROPIC_BASE_URL, la coincidencia exacta de ANTHROPIC_MODEL, el comportamiento de un token local de autenticación no vacío y `drop_params: true`.
- Las señales de confianza están por encima de la media para una skill centrada solo en orientación, porque incluye un archivo independiente de notas verificadas con documentación que distingue entre la guía basada en artículos y las actualizaciones ajustadas a la documentación de LiteLLM.
- La adopción es menos directa de lo deseable: SKILL.md no incluye un comando de instalación y el repositorio no trae scripts, reglas ni recursos auxiliares que reduzcan la incertidumbre de la configuración.
- El flujo se describe explícitamente como una solución avanzada alternativa, sin garantía de soporte oficial por parte de GitHub ni de compatibilidad a largo plazo.
Visión general de la skill running-claude-code-via-litellm-copilot
La skill running-claude-code-via-litellm-copilot te ayuda a montar un flujo de proxy muy concreto: mantener Claude Code hablando con su API habitual con formato Anthropic, pero hacer que las solicitudes reales pasen por un servidor local de LiteLLM que las reenvía a GitHub Copilot. Está pensada sobre todo para quienes quieren reducir el uso directo de la API de Anthropic, probar una configuración más económica o diagnosticar por qué Claude Code no está llegando al backend previsto.
Para quién encaja mejor esta skill
Esta running-claude-code-via-litellm-copilot skill encaja mejor si eres:
- desarrollador que ya usa Claude Code
- usuario con soltura para editar variables de entorno y archivos de configuración locales
- alguien que está comparando acceso directo a Anthropic frente a un proxy local con LiteLLM
- alguien que está depurando errores
401/403,model not foundo casos en los que "Claude Code is not hitting localhost"
No es una introducción para principiantes a Claude Code, LiteLLM ni GitHub Copilot.
El trabajo real que resuelve
La mayoría de usuarios no buscan simplemente “un resumen del repositorio”. Lo que quieren es una forma funcional de:
- ejecutar Claude Code a través de LiteLLM,
- apuntar LiteLLM a GitHub Copilot,
- hacer que los nombres de modelo coincidan exactamente,
- verificar que el tráfico realmente pasa por el proxy,
- corregir rápido los fallos habituales de autenticación y compatibilidad.
Ahí es donde esta skill resulta útil.
Qué diferencia a esta skill
Lo que realmente la diferencia es que ofrece orientación para una integración frágil, no una capa genérica de prompting. Pone el foco en restricciones prácticas que suelen bloquear la adopción:
ANTHROPIC_BASE_URLdebe apuntar Claude Code a LiteLLM- Claude Code sigue esperando un token de Anthropic local no vacío
- LiteLLM debe usar el patrón de proveedor
github_copilot/<model> ANTHROPIC_MODELde Claude Code debe coincidir exactamente conmodel_namede LiteLLMdrop_params: truees importante para la compatibilidad- la autorización inicial del dispositivo con GitHub puede aparecer solo después de la primera solicitud real
- conviene confirmar el éxito mirando los logs de LiteLLM, no dando por buena la configuración
Léelo antes de decidir si instalarla
Usa running-claude-code-via-litellm-copilot si tu pregunta principal es: “¿Cómo hago para que esta combinación con proxy funcione de verdad en mi máquina?”. Sáltatela si solo necesitas el uso normal de Claude Code, una configuración directa con Anthropic o documentación general de Copilot.
Cómo usar la skill running-claude-code-via-litellm-copilot
Instalar la skill running-claude-code-via-litellm-copilot
Instala desde el repositorio de skills:
npx skills add https://github.com/xixu-me/skills --skill running-claude-code-via-litellm-copilot
Si tu entorno usa otro cargador de skills, añade la skill desde:
https://github.com/xixu-me/skills/tree/main/skills/running-claude-code-via-litellm-copilot
Lee primero estos archivos
Para esta running-claude-code-via-litellm-copilot install, empieza por:
skills/running-claude-code-via-litellm-copilot/SKILL.mdskills/running-claude-code-via-litellm-copilot/references/doc-verified-notes.md
Por qué importa este orden:
SKILL.mdexplica el flujo operativo y las reglas de decisión.references/doc-verified-notes.mdaclara qué puntos están anclados al artículo y cuáles se ajustaron con base en la documentación de LiteLLM, algo importante porque esta configuración es sensible a problemas de compatibilidad.
Ten claros los elementos mínimos de la configuración
Para que la configuración funcione, normalmente tienen que alinearse cuatro cosas:
- Claude Code apuntando a LiteLLM mediante
ANTHROPIC_BASE_URL - un
ANTHROPIC_API_KEYlocal no vacío, o un valor de token equivalente, para que Claude Code se ejecute - LiteLLM configurado para usar
github_copilot/<model> - coincidencia exacta del nombre de modelo entre Claude Code y LiteLLM
Si falla una sola de estas piezas, el flujo suele romperse de maneras confusas.
Qué datos necesita de ti la skill
Para aprovechar bien la guía de running-claude-code-via-litellm-copilot usage, aporta:
- tu sistema operativo y shell
- si Claude Code ya está instalado y funcionando
- si LiteLLM ya está instalado y cómo lo arrancas
- tu
ANTHROPIC_BASE_URLactual - el nombre de modelo que quieres usar con Copilot
- el texto exacto del error si la configuración está fallando
- si estás dispuesto a editar
~/.claude/settings.jsono los archivos de perfil de tu shell
Con esos datos, la skill puede adaptar los comandos en lugar de adivinar.
Cómo convertir un objetivo difuso en un prompt sólido
Prompt débil:
Help me use Claude Code with LiteLLM and Copilot.
Prompt más sólido:
I want Claude Code to send requests to a local LiteLLM proxy on macOS zsh, then forward to GitHub Copilot. Show the minimum config, the environment variables I need, how to set ANTHROPIC_BASE_URL, how to choose the exact ANTHROPIC_MODEL value so it matches LiteLLM model_name, and how to verify traffic in LiteLLM logs before editing persistent files.
Por qué este es mejor:
- indica el sistema operativo y la shell
- pide la cadena de configuración exacta
- señala desde el inicio el problema de coincidencia de modelos
- pide una verificación segura antes de hacer cambios persistentes
Flujo recomendado para la primera configuración
Sigue este orden en lugar de editarlo todo de una vez:
- inspeccionar la configuración actual de Claude Code y LiteLLM
- elegir un único modelo objetivo
- configurar LiteLLM con
github_copilot/<model> - establecer
drop_params: truesi hace falta para la compatibilidad con solicitudes en formato Anthropic - apuntar Claude Code a LiteLLM usando
ANTHROPIC_BASE_URL - establecer
ANTHROPIC_MODELpara que coincida exactamente conmodel_namede LiteLLM - ejecutar una solicitud pequeña
- observar los logs de LiteLLM
- completar la autorización de dispositivo de GitHub si aparece
- solo entonces hacer cambios persistentes en la configuración
Así reduces la probabilidad de ocultar el fallo real detrás de varios cambios simultáneos.
La regla de compatibilidad más importante
En la práctica, la regla de más valor del repositorio es esta: ANTHROPIC_MODEL de Claude Code debe coincidir exactamente con model_name de LiteLLM.
No trates el nombre del modelo como si admitiera aproximaciones. Una discrepancia que “parece pequeña” basta para romper el enrutamiento y producir errores engañosos.
Cómo comprobar que el proxy realmente funciona
No te quedes en “el comando se ejecutó”. Verifica todo lo siguiente:
- Claude Code está apuntando a tu
ANTHROPIC_BASE_URLlocal - LiteLLM recibe la solicitud en los logs
- la solicitud se reenvía a través de la ruta del proveedor de GitHub Copilot
- la respuesta vuelve a través de LiteLLM y no por acceso directo a Anthropic
Si no hay tráfico hacia localhost, el problema suele estar antes de la autenticación con Copilot.
Patrones de fallo habituales con los que ayuda esta skill
Esta running-claude-code-via-litellm-copilot guide resulta especialmente útil para:
model not foundpor nombres de modelo que no coinciden401o403durante la autenticación con GitHub Copilot- ausencia total de tráfico llegando a LiteLLM
- Claude Code esperando un token de Anthropic aunque LiteLLM sea el backend real
- problemas de compatibilidad causados por parámetros de solicitud no admitidos
Son exactamente el tipo de problemas en los que un prompt genérico suele hacerte perder tiempo.
Cuándo usar modo explicación y cuándo modo ejecución
La skill original distingue claramente dos modos:
- modo explicación: dar el conjunto mínimo y correcto de comandos, archivos y comprobaciones
- modo ejecución: inspeccionar la máquina activa, adaptarse a la shell y al sistema operativo, y detenerse antes de hacer cambios persistentes
Esa distinción importa. Si quieres ayuda práctica para montarlo, dilo claramente. Si solo quieres un plan, pide primero una guía no destructiva.
Un prompt práctico que puedes reutilizar
Usa un prompt como este al invocar la skill:
Use the running-claude-code-via-litellm-copilot skill. I want a non-destructive setup plan for routing Claude Code through a local LiteLLM proxy to GitHub Copilot on Ubuntu bash. Please inspect the likely config points, show the exact variables and file paths to check, explain the github_copilot/<model> naming rule, call out where ANTHROPIC_MODEL must match LiteLLM model_name exactly, and give a verification checklist using LiteLLM logs before any persistent edits.
Preguntas frecuentes sobre la skill running-claude-code-via-litellm-copilot
¿Es adecuada running-claude-code-via-litellm-copilot para principiantes?
Por lo general, solo si te manejas bien con proxies locales, variables de entorno y depuración de configuración. La skill está bien enfocada, pero el flujo en sí sigue siendo avanzado y puede fallar por varios detalles pequeños.
¿Qué hace mejor esta skill que un prompt normal?
Un prompt normal puede explicarte la idea. La running-claude-code-via-litellm-copilot skill destaca más cuando necesitas las suposiciones exactas de enrutamiento, las reglas básicas de troubleshooting y el orden de configuración que evita callejones sin salida.
¿Esta skill garantiza compatibilidad con GitHub Copilot?
No. El material de origen lo plantea como una solución alternativa, no como un flujo de GitHub garantizado oficialmente. Úsala como guía de implementación práctica, no como promesa de compatibilidad a largo plazo.
¿Cuándo no debería usar running-claude-code-via-litellm-copilot?
No la uses si:
- te vale una configuración directa con Anthropic
- no quieres un proxy local en medio
- necesitas una vía de integración empresarial con soporte oficial
- buscas una introducción general a Claude Code y no este patrón de enrutamiento concreto
¿Esto va sobre todo de ahorrar dinero?
Reducir costes es una motivación, pero no la única. Muchos usuarios la necesitan para controlar el enrutamiento, sustituir el backend o depurar por qué Claude Code está apuntando al endpoint equivocado.
¿Cuál es el bloqueo de configuración más probable?
El principal bloqueo es que el nombre del modelo no coincida exactamente entre Claude Code y LiteLLM. Después de eso, las causas más probables son los problemas de autenticación y la falta de tráfico hacia localhost.
¿La skill incluye scripts o automatizaciones adicionales?
No aparecen scripts auxiliares importantes en la instantánea del repositorio. Es una skill muy centrada en la guía, así que lo normal es que apliques las instrucciones manualmente en tu propia máquina y configuración.
Cómo mejorar la skill running-claude-code-via-litellm-copilot
Empieza por tu estado actual, no por el estado objetivo
Para obtener mejores resultados de running-claude-code-via-litellm-copilot, dile al agente qué existe ya:
- herramientas instaladas
- archivos de configuración actuales
- variables de entorno actuales
- comando exacto que ejecutaste
- salida exacta del error
Así evitas que el asistente te dé una configuración desde cero cuando en realidad necesitas troubleshooting.
Pide primero una configuración con un solo modelo
No empieces con varios modelos ni con una petición amplia del tipo “haz que todo funcione”. Pide un modelo, un endpoint y un paso de validación. Eso acota los fallos y hace que los logs sean más interpretables.
Incluye las cadenas exactas de modelo
Cuando pidas ayuda, pega ambos valores:
- el
model_namede LiteLLM - el
ANTHROPIC_MODELde Claude Code
Es la forma más rápida de detectar la rotura más habitual.
Pide un plan con verificación primero
Una petición sólida sería:
Before suggesting persistent edits, give me a temporary test setup and a checklist to confirm Claude Code is reaching LiteLLM and LiteLLM is forwarding to GitHub Copilot.
Esto mejora la seguridad y reduce los cambios innecesarios en la configuración.
Comparte logs, no solo síntomas
Mal:
It does not work.
Mejor:
Claude Code returns model not found. LiteLLM logs show no localhost request after I set ANTHROPIC_BASE_URL to ...
Óptimo:
Claude Code returns model not found. My ANTHROPIC_MODEL is X, LiteLLM model_name is Y, and LiteLLM logs show the request arriving but failing after provider routing.
La skill funciona mejor cuando aportas pruebas de la capa exacta en la que falla.
Pide al agente que separe la causa raíz de la corrección
Esta configuración suele producir errores encadenados. Pide la salida en este formato:
- causa raíz probable
- archivo o variable exacta que conviene revisar
- corrección mínima
- paso de verificación
Esa estructura hace que las recomendaciones sean más fáciles de ejecutar y auditar.
Usa las notas de referencia si el comportamiento parece desactualizado
Si la guía parece entrar en conflicto con lo que estás viendo, remite al agente a:
references/doc-verified-notes.md
Ese archivo es donde el repositorio aclara qué parte de la guía viene del artículo y qué parte refleja el comportamiento actualmente verificado de LiteLLM, incluida la regla de nomenclatura github_copilot/<model>.
Mejora después de la primera solicitud exitosa
Cuando la primera solicitud funcione, itera entonces sobre:
- ubicación de la configuración persistente
- limpieza del perfil de la shell
- valores predeterminados más seguros
- cambio entre modelos
- documentación local más clara para tu equipo
No optimices antes de haber confirmado el tráfico de extremo a extremo.
Vigila estos modos de fallo durante la iteración
Los errores repetidos más importantes son:
- cambiar varios archivos de configuración a la vez
- asumir que nombres de modelo aproximados son suficientes
- olvidar que Claude Code sigue esperando un token de Anthropic local no vacío
- no revisar los logs de LiteLLM
- hacer cambios persistentes antes de que una prueba temporal funcione
La mejor forma de obtener resultados de más calidad con esta skill
El mejor patrón de prompt para running-claude-code-via-litellm-copilot for Skill Installation es:
Use the running-claude-code-via-litellm-copilot skill to troubleshoot my current setup. I am on [OS/shell]. Claude Code is configured with [values]. LiteLLM is started with [method]. My intended provider route is github_copilot/[model]. My ANTHROPIC_MODEL is [value]. Here are the logs and the exact error. Give me the smallest fix first, then a verification step, and pause before suggesting persistent edits.
Así la skill recibe el contexto que necesita para dar orientación útil para instalación y ajustada a la máquina, en lugar de limitarse a una explicación genérica de configuración.
