X

running-claude-code-via-litellm-copilot

por xixu-me

running-claude-code-via-litellm-copilot mostra como rotear o Claude Code por um proxy LiteLLM local até o GitHub Copilot, alinhar `ANTHROPIC_BASE_URL` e os nomes de modelo, verificar o tráfego em localhost e resolver problemas de 401/403, model-not-found e compatibilidade do proxy.

Estrelas6
Favoritos0
Comentários0
Adicionado31 de mar. de 2026
CategoriaSkill Installation
Comando de instalação
npx skills add https://github.com/xixu-me/skills --skill running-claude-code-via-litellm-copilot
Pontuação editorial

Esta skill recebe 78/100, o que a torna uma boa candidata no diretório para usuários que especificamente querem rotear o Claude Code por um proxy LiteLLM local até o GitHub Copilot. O repositório traz sinais de uso bem claros, foco prático em configuração e troubleshooting, além de avisos explícitos de que se trata de uma solução avançada de contorno, e não de um fluxo oficial. Ainda assim, a execução na instalação exige alguma interpretação manual, já que não há scripts incluídos nem um comando de instalação pronto.

78/100
Pontos fortes
  • As condições de uso ficam muito claras no frontmatter e em "When To Use", incluindo cenários de configuração e troubleshooting como model-not-found, ausência de tráfego em localhost e erros 401/403 do GitHub.
  • A orientação operacional é robusta: a skill explica regras importantes de compatibilidade, como usar `ANTHROPIC_BASE_URL`, manter correspondência exata em `ANTHROPIC_MODEL`, o comportamento de token local de autenticação não vazio e `drop_params: true`.
  • Os sinais de confiança estão acima da média para uma skill apenas de orientação, porque ela inclui um arquivo separado de notas verificadas na documentação, distinguindo orientações baseadas em artigo de atualizações ajustadas à documentação do LiteLLM.
Pontos de atenção
  • A adoção é menos direta do que poderia ser: o `SKILL.md` não traz comando de instalação, e o repositório não inclui scripts, regras ou recursos auxiliares para reduzir as dúvidas na configuração.
  • O fluxo é descrito explicitamente como uma solução avançada de contorno, sem qualquer garantia de suporte oficial do GitHub ou de compatibilidade no longo prazo.
Visão geral

Visão geral da skill running-claude-code-via-litellm-copilot

A skill running-claude-code-via-litellm-copilot ajuda você a configurar um fluxo específico com proxy: manter o Claude Code falando com a API no formato Anthropic de sempre, mas roteando as requisições reais por um servidor LiteLLM local que as encaminha para o GitHub Copilot. Ela é voltada principalmente para quem quer reduzir o uso direto da API da Anthropic, testar uma configuração mais barata ou investigar por que o Claude Code não está chegando ao backend esperado.

Para quem esta skill é mais indicada

Esta running-claude-code-via-litellm-copilot skill é mais indicada para:

  • desenvolvedores que já usam Claude Code
  • usuários à vontade para editar variáveis de ambiente e arquivos locais de configuração
  • pessoas comparando acesso direto à Anthropic com um proxy local via LiteLLM
  • quem está depurando erros 401/403, model not found ou situações em que "Claude Code is not hitting localhost"

Ela não é uma introdução para iniciantes a Claude Code, LiteLLM ou GitHub Copilot.

O trabalho real que ela resolve

A maioria dos usuários não quer apenas “um resumo do repositório”. O que eles realmente precisam é de um caminho funcional para:

  1. rodar o Claude Code através do LiteLLM,
  2. apontar o LiteLLM para o GitHub Copilot,
  3. fazer os nomes de modelo coincidirem exatamente,
  4. verificar se o tráfego está realmente passando pelo proxy,
  5. corrigir rapidamente as falhas mais comuns de autenticação e compatibilidade.

É aí que esta skill se torna útil.

O que diferencia esta skill

O diferencial prático é que ela orienta uma integração frágil, e não uma camada genérica de prompting. O foco está nas restrições reais que normalmente travam a adoção:

  • ANTHROPIC_BASE_URL precisa apontar o Claude Code para o LiteLLM
  • o Claude Code ainda espera um token Anthropic local não vazio
  • o LiteLLM deve usar o padrão de provider github_copilot/<model>
  • o ANTHROPIC_MODEL do Claude Code precisa corresponder exatamente ao model_name do LiteLLM
  • drop_params: true faz diferença para compatibilidade
  • a autorização inicial do dispositivo GitHub pode aparecer só após a primeira requisição real
  • você deve confirmar que deu certo observando os logs do LiteLLM, e não presumindo que a configuração está correta

Leia isto antes de decidir instalar

Use running-claude-code-via-litellm-copilot se a sua pergunta principal for: “Como faço esse arranjo com proxy funcionar de verdade na minha máquina?” Ignore se você só precisa do uso comum do Claude Code, de uma configuração direta com Anthropic ou da documentação geral do Copilot.

Como usar a skill running-claude-code-via-litellm-copilot

Instale a skill running-claude-code-via-litellm-copilot

Instale a partir do repositório de skills:

npx skills add https://github.com/xixu-me/skills --skill running-claude-code-via-litellm-copilot

Se o seu ambiente usa outro carregador de skills, adicione a skill a partir de:

https://github.com/xixu-me/skills/tree/main/skills/running-claude-code-via-litellm-copilot

Leia estes arquivos primeiro

Para esta instalação de running-claude-code-via-litellm-copilot, comece por:

  1. skills/running-claude-code-via-litellm-copilot/SKILL.md
  2. skills/running-claude-code-via-litellm-copilot/references/doc-verified-notes.md

Por que essa ordem importa:

  • SKILL.md traz o fluxo operacional e as regras de decisão.
  • references/doc-verified-notes.md explica o que está ancorado no artigo e o que foi refinado com base na documentação do LiteLLM, o que é importante porque essa configuração é sensível a compatibilidade.

Entenda os componentes mínimos da configuração

Uma configuração bem-sucedida normalmente exige quatro pontos alinhados:

  • Claude Code apontando para o LiteLLM via ANTHROPIC_BASE_URL
  • um ANTHROPIC_API_KEY local não vazio, ou valor de token equivalente, para que o Claude Code rode
  • LiteLLM configurado para usar github_copilot/<model>
  • correspondência exata do nome do modelo entre Claude Code e LiteLLM

Se qualquer um desses itens estiver errado, o fluxo costuma falhar de um jeito confuso.

Quais informações a skill precisa de você

Para usar bem as orientações de running-claude-code-via-litellm-copilot usage, informe:

  • seu sistema operacional e shell
  • se o Claude Code já está instalado e funcionando
  • se o LiteLLM já está instalado e como você o inicia
  • seu ANTHROPIC_BASE_URL atual
  • o nome de modelo que você pretende usar por trás do Copilot
  • o texto exato do erro, se a configuração estiver falhando
  • se você aceita editar ~/.claude/settings.json ou arquivos de perfil do shell

Esses detalhes permitem que a skill adapte os comandos ao seu caso, em vez de ficar supondo.

Como transformar um objetivo vago em um prompt forte

Prompt fraco:

Help me use Claude Code with LiteLLM and Copilot.

Prompt melhor:

I want Claude Code to send requests to a local LiteLLM proxy on macOS zsh, then forward to GitHub Copilot. Show the minimum config, the environment variables I need, how to set ANTHROPIC_BASE_URL, how to choose the exact ANTHROPIC_MODEL value so it matches LiteLLM model_name, and how to verify traffic in LiteLLM logs before editing persistent files.

Por que este é melhor:

  • informa o sistema operacional e o shell
  • pede a cadeia exata de configuração
  • já destaca de saída o problema de correspondência de modelo
  • pede verificação segura antes de mexer em arquivos persistentes

Fluxo recomendado para a primeira configuração

Use esta ordem em vez de editar tudo de uma vez:

  1. inspecione a configuração atual de Claude Code e LiteLLM
  2. escolha um único modelo de destino
  3. configure o LiteLLM com github_copilot/<model>
  4. defina drop_params: true se necessário para compatibilidade com requisições no formato Anthropic
  5. aponte o Claude Code para o LiteLLM usando ANTHROPIC_BASE_URL
  6. defina ANTHROPIC_MODEL para corresponder exatamente ao model_name do LiteLLM
  7. execute uma requisição pequena
  8. acompanhe os logs do LiteLLM
  9. conclua a autorização de dispositivo do GitHub, se ela for solicitada
  10. só então faça mudanças persistentes de configuração

Isso reduz a chance de esconder a falha real atrás de várias edições simultâneas.

A regra de compatibilidade mais importante

Na prática, a regra de maior valor no repositório é esta: o ANTHROPIC_MODEL do Claude Code precisa corresponder exatamente ao model_name do LiteLLM.

Não trate a nomenclatura de modelo como algo aproximado. Uma discrepância aparentemente pequena já basta para quebrar o roteamento e gerar erros enganosos.

Como verificar se o proxy está realmente funcionando

Não pare no “o comando executou”. Verifique tudo isso:

  • o Claude Code está apontando para o seu ANTHROPIC_BASE_URL local
  • o LiteLLM recebe a requisição nos logs
  • a requisição é encaminhada pelo caminho de provider do GitHub Copilot
  • a resposta retorna via LiteLLM, e não por acesso direto à Anthropic

Se não houver tráfego para localhost, o problema geralmente acontece antes da autenticação do Copilot.

Padrões comuns de falha com os quais esta skill ajuda

Este running-claude-code-via-litellm-copilot guide é especialmente útil para:

  • model not found por incompatibilidade de nomes de modelo
  • 401 ou 403 durante a autenticação do GitHub Copilot
  • nenhum tráfego chegando ao LiteLLM
  • Claude Code exigindo um token Anthropic mesmo quando o LiteLLM é o backend real
  • problemas de compatibilidade causados por parâmetros de requisição não suportados

São exatamente os tipos de problema em que um prompt genérico costuma desperdiçar tempo.

Quando usar modo de explicação vs modo de execução

A skill original é explícita sobre dois modos:

  • modo de explicação: fornece o menor conjunto correto de comandos, arquivos e verificações
  • modo de execução: inspeciona a máquina em uso, adapta ao shell e ao sistema operacional e pausa antes de alterações persistentes

Essa distinção importa. Se você quer ajuda prática na configuração, diga isso claramente. Se quer apenas um plano, peça primeiro um passo a passo não destrutivo.

Um prompt prático para reutilizar

Use um prompt como este ao invocar a skill:

Use the running-claude-code-via-litellm-copilot skill. I want a non-destructive setup plan for routing Claude Code through a local LiteLLM proxy to GitHub Copilot on Ubuntu bash. Please inspect the likely config points, show the exact variables and file paths to check, explain the github_copilot/<model> naming rule, call out where ANTHROPIC_MODEL must match LiteLLM model_name exactly, and give a verification checklist using LiteLLM logs before any persistent edits.

FAQ da skill running-claude-code-via-litellm-copilot

A running-claude-code-via-litellm-copilot é adequada para iniciantes?

Em geral, só se você já tiver familiaridade com proxies locais, variáveis de ambiente e depuração de configuração. A skill é bem focada, mas o fluxo em si continua avançado e pode falhar por vários detalhes pequenos.

O que esta skill faz melhor do que um prompt comum?

Um prompt comum pode explicar a ideia. A running-claude-code-via-litellm-copilot skill é mais forte quando você precisa das premissas exatas de roteamento, das regras iniciais de troubleshooting e da ordem de configuração que evita becos sem saída.

Esta skill garante suporte ao GitHub Copilot?

Não. O material de origem apresenta isso como um workaround, não como um fluxo GitHub oficialmente garantido. Use como orientação prática de implementação, e não como promessa de compatibilidade de longo prazo.

Quando eu não devo usar running-claude-code-via-litellm-copilot?

Não use se:

  • você está satisfeito com uma configuração direta via Anthropic
  • você não quer um proxy local no caminho
  • você precisa de um caminho de integração enterprise oficialmente suportado
  • você procura onboarding geral de Claude Code, e não esse padrão específico de roteamento

Isso é principalmente para economizar dinheiro?

Redução de custo é uma das motivações, mas não a única. Muitos usuários precisam disso para controlar o roteamento, trocar o backend ou depurar por que o Claude Code está batendo no endpoint errado.

Qual é o bloqueador de configuração mais provável?

O principal bloqueador é a falta de correspondência exata no nome do modelo entre Claude Code e LiteLLM. Depois disso, os problemas mais prováveis são autenticação e ausência de tráfego para localhost.

A skill inclui scripts extras ou automação?

Não há scripts auxiliares relevantes destacados no snapshot do repositório. Esta é uma skill fortemente orientada por instruções, então espere aplicar tudo manualmente à sua própria máquina e configuração.

Como melhorar a skill running-claude-code-via-litellm-copilot

Comece pelo seu estado atual, não pelo estado desejado

Para obter resultados melhores com running-claude-code-via-litellm-copilot, diga ao agente o que já existe:

  • ferramentas instaladas
  • arquivos de configuração atuais
  • variáveis de ambiente atuais
  • comando exato que você executou
  • saída exata do erro

Isso evita que o assistente entregue uma configuração limpa do zero quando o que você realmente precisa é troubleshooting.

Peça primeiro uma configuração com um único modelo

Não comece com vários modelos ou com um pedido amplo do tipo “faça tudo funcionar”. Peça um modelo, um endpoint e uma etapa de validação. Isso reduz a superfície de falha e torna os logs mais interpretáveis.

Inclua as strings exatas dos modelos

Ao pedir ajuda, cole ambos:

  • o model_name do LiteLLM
  • o ANTHROPIC_MODEL do Claude Code

Essa é a forma mais rápida de detectar a quebra mais comum.

Peça um plano com verificação antes de mudanças persistentes

Um pedido forte é:

Before suggesting persistent edits, give me a temporary test setup and a checklist to confirm Claude Code is reaching LiteLLM and LiteLLM is forwarding to GitHub Copilot.

Isso aumenta a segurança e reduz alterações desnecessárias na configuração.

Compartilhe logs, não só sintomas

Ruim:

It does not work.

Melhor:

Claude Code returns model not found. LiteLLM logs show no localhost request after I set ANTHROPIC_BASE_URL to ...

Ideal:

Claude Code returns model not found. My ANTHROPIC_MODEL is X, LiteLLM model_name is Y, and LiteLLM logs show the request arriving but failing after provider routing.

A skill funciona melhor quando você fornece evidências da camada em que a falha acontece.

Peça ao agente para separar causa raiz de correção

Essa configuração costuma produzir erros em cascata. Peça a resposta neste formato:

  • causa raiz provável
  • arquivo ou variável exata para inspecionar
  • correção mínima
  • etapa de verificação

Essa estrutura torna a orientação mais fácil de executar e auditar.

Use as notas de referência quando o comportamento parecer desatualizado

Se a orientação parecer entrar em conflito com o que você está vendo, aponte o agente de volta para:

references/doc-verified-notes.md

É nesse arquivo que o repositório esclarece o que vem do artigo e o que corresponde ao comportamento atualmente verificado no LiteLLM, incluindo a regra de nomenclatura github_copilot/<model>.

Melhore depois da primeira requisição bem-sucedida

Depois que a primeira requisição funcionar, aí sim itere sobre:

  • onde colocar a configuração persistente
  • limpeza do perfil do shell
  • padrões mais seguros
  • troca de modelos
  • documentação local mais clara para sua equipe

Não otimize antes de confirmar o tráfego de ponta a ponta.

Fique atento a estes modos de falha durante as iterações

Os erros recorrentes mais importantes são:

  • alterar vários arquivos de configuração ao mesmo tempo
  • assumir que nomes de modelo aproximados bastam
  • esquecer que o Claude Code ainda espera um token Anthropic local não vazio
  • não verificar os logs do LiteLLM
  • fazer alterações persistentes antes de um teste temporário dar certo

Melhor forma de obter respostas mais úteis desta skill

O melhor padrão de prompt para running-claude-code-via-litellm-copilot for Skill Installation é:

Use the running-claude-code-via-litellm-copilot skill to troubleshoot my current setup. I am on [OS/shell]. Claude Code is configured with [values]. LiteLLM is started with [method]. My intended provider route is github_copilot/[model]. My ANTHROPIC_MODEL is [value]. Here are the logs and the exact error. Give me the smallest fix first, then a verification step, and pause before suggesting persistent edits.

Isso dá à skill o contexto necessário para produzir orientações de instalação relevantes para a sua máquina, em vez de texto genérico de configuração.

Avaliações e comentários

Ainda não há avaliações
Compartilhe sua avaliação
Faça login para deixar uma nota e um comentário sobre esta skill.
G
0/10000
Avaliações mais recentes
Salvando...