running-claude-code-via-litellm-copilot
作者 xixu-merunning-claude-code-via-litellm-copilot 说明如何通过本地 LiteLLM 代理将 Claude Code 路由到 GitHub Copilot,包括对齐 ANTHROPIC_BASE_URL 与模型名称、验证 localhost 流量,以及排查 401/403、model-not-found 和代理兼容性问题。
该技能评分为 78/100,对于明确想通过本地 LiteLLM 代理把 Claude Code 路由到 GitHub Copilot 的用户来说,是一个值得收录的目录候选。仓库提供了清晰的适用触发场景、较强的实际配置与排障导向,并明确提示这是一种高级变通方案,而非官方工作流;不过在实际安装与运行时,用户仍需要自行做一些判断,因为仓库未附带脚本或现成的安装命令。
- 在 frontmatter 和 “When To Use” 中清楚说明了适用条件,包括 model-not-found、localhost 没有流量以及 GitHub 401/403 等配置和排障场景。
- 操作层面的指导较为扎实:技能明确解释了关键兼容性规则,例如使用 ANTHROPIC_BASE_URL、精确匹配 ANTHROPIC_MODEL、本地认证 token 不能为空,以及 `drop_params: true`。
- 对于纯指导型技能来说,可信度信号高于平均水平:仓库额外提供了一个经文档核验的说明文件,用来区分基于文章整理的指导内容与依据 LiteLLM 文档进一步校正后的更新。
- 落地使用还不够开箱即用:SKILL.md 没有安装命令,仓库里也没有脚本、规则或辅助资源来减少配置过程中的试错和猜测。
- 该工作流被明确描述为一种高级变通方案,并不保证获得 GitHub 官方支持,也不承诺长期兼容。
running-claude-code-via-litellm-copilot skill 概览
running-claude-code-via-litellm-copilot skill 用来帮你搭建一条特定的代理工作流:让 Claude Code 继续使用它 привыч用的 Anthropic 风格 API,但把实际请求转发到本地 LiteLLM 服务器,再由后者继续转到 GitHub Copilot。它主要适合这几类需求:尽量减少对 Anthropic API 的直接调用、测试更便宜的方案,或者排查为什么 Claude Code 没有连到你预期的后端。
这个 skill 最适合哪些人
这个 running-claude-code-via-litellm-copilot skill 最适合:
- 已经在使用 Claude Code 的开发者
- 能接受修改环境变量和本地配置文件的用户
- 想比较直连 Anthropic 与本地 LiteLLM 代理差异的人
- 正在排查
401/403、model not found,或“Claude Code 没有打到 localhost”这类问题的人
它并不是面向新手的 Claude Code、LiteLLM 或 GitHub Copilot 入门教程。
这个 skill 真正解决的问题
大多数用户要的并不只是“仓库内容总结”,而是一条真正能跑通的路径,用来:
- 让 Claude Code 通过 LiteLLM 运行;
- 把 LiteLLM 指向 GitHub Copilot;
- 让模型名完全对齐;
- 验证流量确实经过代理;
- 快速修正常见的鉴权和兼容性故障。
这正是这个 skill 的价值所在。
这个 skill 的差异点在哪里
它真正有用的地方在于:这是针对脆弱集成链路的实操指导,不是泛泛而谈的 prompt 层封装。它会重点强调那些最容易卡住落地的实际约束:
- 必须用
ANTHROPIC_BASE_URL把 Claude Code 指向 LiteLLM - Claude Code 在本地仍然要求一个非空的 Anthropic token
- LiteLLM 应该使用
github_copilot/<model>这种 provider 命名模式 - Claude Code 的
ANTHROPIC_MODEL必须与 LiteLLM 的model_name完全一致 drop_params: true对兼容性很关键- GitHub 首次 device authorization 往往要等第一条真实请求发出后才会出现
- 判断是否成功时,应以 LiteLLM 日志为准,而不是凭感觉觉得配置“应该没问题”
安装前先判断是否值得用
如果你的核心问题是“怎么才能让这套代理方案在我机器上真正跑起来”,那就适合用 running-claude-code-via-litellm-copilot。如果你只是想正常使用 Claude Code、直连 Anthropic,或者只想看 GitHub Copilot 的通用文档,那就可以跳过。
如何使用 running-claude-code-via-litellm-copilot skill
安装 running-claude-code-via-litellm-copilot skill
从 skills 仓库安装:
npx skills add https://github.com/xixu-me/skills --skill running-claude-code-via-litellm-copilot
如果你的环境使用的是其他 skill loader,也可以直接从这里添加:
https://github.com/xixu-me/skills/tree/main/skills/running-claude-code-via-litellm-copilot
先读这两个文件
如果你是在做这次 running-claude-code-via-litellm-copilot install,建议按这个顺序先看:
skills/running-claude-code-via-litellm-copilot/SKILL.mdskills/running-claude-code-via-litellm-copilot/references/doc-verified-notes.md
这个顺序很重要,原因是:
SKILL.md提供了实际操作流程和决策规则。references/doc-verified-notes.md会说明哪些内容是基于文章结论,哪些又根据 LiteLLM 文档做了更严格校准;这点很关键,因为这套配置对兼容性非常敏感。
先确认最小可用的几块配置
一套能成功跑通的配置,通常需要这四项同时对齐:
- Claude Code 通过
ANTHROPIC_BASE_URL指向 LiteLLM - 本地提供一个非空的
ANTHROPIC_API_KEY或等价 token 值,让 Claude Code 能启动 - LiteLLM 已配置为使用
github_copilot/<model> - Claude Code 和 LiteLLM 之间的模型名完全一致
这四项只要有一项不对,整个流程就很容易以一种很迷惑的方式失败。
这个 skill 需要你提供哪些输入
如果你想更有效地使用这份 running-claude-code-via-litellm-copilot usage 指南,最好提供:
- 你的操作系统和 shell
- Claude Code 是否已经安装并可正常运行
- LiteLLM 是否已经安装,以及你是怎么启动它的
- 你当前的
ANTHROPIC_BASE_URL - 你打算用的 Copilot 后端模型名
- 如果配置失败,贴出完整报错文本
- 你是否愿意修改
~/.claude/settings.json或 shell profile 文件
这些信息能让 skill 给出贴合实际环境的命令,而不是靠猜。
把模糊目标改写成高质量提示词
较弱的提示词:
Help me use Claude Code with LiteLLM and Copilot.
更强的提示词:
I want Claude Code to send requests to a local LiteLLM proxy on macOS zsh, then forward to GitHub Copilot. Show the minimum config, the environment variables I need, how to set ANTHROPIC_BASE_URL, how to choose the exact ANTHROPIC_MODEL value so it matches LiteLLM model_name, and how to verify traffic in LiteLLM logs before editing persistent files.
为什么这个版本更好:
- 直接说明了 OS 和 shell
- 明确要求完整配置链路
- 一开始就点出了模型名匹配问题
- 要求先做安全验证,再改持久化配置
首次配置建议采用的工作流
不要一上来把所有配置一起改掉,建议按这个顺序做:
- 检查当前的 Claude Code 和 LiteLLM 配置
- 先选定一个目标模型
- 在 LiteLLM 中配置
github_copilot/<model> - 如有需要,设置
drop_params: true以兼容 Anthropic 风格请求 - 用
ANTHROPIC_BASE_URL把 Claude Code 指向 LiteLLM - 把
ANTHROPIC_MODEL设成与 LiteLLMmodel_name完全一致 - 发起一次小请求
- 观察 LiteLLM 日志
- 如果出现提示,完成 GitHub device authorization
- 确认没问题后,再去改持久化配置
这样做能降低“多个修改同时发生,反而把真正故障点藏起来”的风险。
最重要的兼容性规则
从实操价值看,这个仓库里最关键的一条规则就是:Claude Code 的 ANTHROPIC_MODEL 必须与 LiteLLM 的 model_name 完全一致。
不要把模型命名当成“大致差不多就行”。看起来只差一点点,也足以导致路由失败,并产生误导性的错误信息。
如何确认代理真的生效了
不要看到“命令跑了”就停下来。至少要核实以下几点:
- Claude Code 的目标地址确实是你的本地
ANTHROPIC_BASE_URL - LiteLLM 日志里确实收到了请求
- 请求确实是通过 GitHub Copilot provider 路径转发出去的
- 响应是经由 LiteLLM 返回的,而不是直接走了 Anthropic
如果根本没有 localhost 流量,问题通常还没走到 Copilot 鉴权那一步。
这个 skill 特别擅长处理哪些失败场景
这份 running-claude-code-via-litellm-copilot guide 尤其适合处理:
- 因模型名不一致导致的
model not found - GitHub Copilot 鉴权阶段出现的
401或403 - 请求根本没有到达 LiteLLM
- 虽然后端实际是 LiteLLM,但 Claude Code 仍然要求 Anthropic token
- 因不支持的请求参数引发的兼容性问题
这正是通用型 prompt 最容易浪费时间的那类问题。
区分 explanation mode 和 execution mode
上游 skill 明确区分了两种模式:
- explanation mode:给出最小且正确的一组命令、文件和检查点
- execution mode:检查当前机器状态,按 shell 和 OS 做适配,并在修改持久化配置前停下来确认
这个区别很重要。如果你希望对方直接协助你落地配置,就要明确说出来;如果你现在只需要方案,最好先要求一份非破坏性的 walkthrough。
一个可以复用的实用提示词
调用这个 skill 时,可以直接用下面这类提示词:
Use the running-claude-code-via-litellm-copilot skill. I want a non-destructive setup plan for routing Claude Code through a local LiteLLM proxy to GitHub Copilot on Ubuntu bash. Please inspect the likely config points, show the exact variables and file paths to check, explain the github_copilot/<model> naming rule, call out where ANTHROPIC_MODEL must match LiteLLM model_name exactly, and give a verification checklist using LiteLLM logs before any persistent edits.
running-claude-code-via-litellm-copilot skill 常见问题
running-claude-code-via-litellm-copilot 适合初学者吗?
通常只适合那些已经能接受本地代理、环境变量和配置排障的人。这个 skill 的定位很准确,但这条工作流本身依然偏进阶,而且可能因为多个细小原因而失败。
这个 skill 相比普通 prompt 强在哪里?
普通 prompt 往往只能解释“原理上可以这么做”。而 running-claude-code-via-litellm-copilot skill 的优势在于:当你真的需要精确的路由前提、首轮排障规则,以及避免走入死胡同的配置顺序时,它更靠谱。
这个 skill 能保证 GitHub Copilot 一定可用吗?
不能。源材料对它的定位是 workaround,而不是 GitHub 官方保证的工作流。更适合把它当作一份实操指导,而不是长期兼容性的承诺。
什么情况下不该用 running-claude-code-via-litellm-copilot?
以下情况不建议使用:
- 你对直连 Anthropic 已经满意
- 你不希望本地代理介入链路
- 你需要官方支持的企业级集成方案
- 你要找的是 Claude Code 的通用上手指南,而不是这种特定路由模式
这个 skill 的核心诉求主要是省钱吗?
降低成本确实是动机之一,但不是唯一原因。很多用户更看重的是路由控制、后端替换能力,或者排查为什么 Claude Code 打到了错误的 endpoint。
最可能卡住配置的点是什么?
排第一的是 Claude Code 和 LiteLLM 之间模型名没有完全一致。其次常见的就是鉴权问题,以及根本没有 localhost 流量进入 LiteLLM。
这个 skill 附带脚本或自动化工具吗?
没有看到仓库快照里提供什么大型辅助脚本。这是一个以指导说明为主的 skill,所以更适合预期为:你需要手动把这些说明应用到自己的机器和配置里。
如何把 running-claude-code-via-litellm-copilot skill 用得更好
从你当前状态说起,不要只描述目标状态
想让 running-claude-code-via-litellm-copilot 给出更高质量结果,先告诉 agent 你现在已经有什么:
- 已安装的工具
- 当前配置文件
- 当前环境变量
- 你执行过的精确命令
- 完整错误输出
这样可以避免 assistant 以为你要的是一套“从零开始的干净安装”,而你真正需要的其实是排障。
先请求单模型配置
不要一开始就上多个模型,或者提出“把所有东西都配好”这种大而泛的需求。先锁定一个模型、一个 endpoint、一次验证步骤。这样更容易缩小问题范围,也更方便解读日志。
明确给出准确的模型字符串
求助时,把下面两个值都贴出来:
- LiteLLM 的
model_name - Claude Code 的
ANTHROPIC_MODEL
这是定位最常见故障的最快方式。
优先请求“先验证、后持久化”的方案
一个高质量请求可以这样写:
Before suggesting persistent edits, give me a temporary test setup and a checklist to confirm Claude Code is reaching LiteLLM and LiteLLM is forwarding to GitHub Copilot.
这样更安全,也能减少不必要的配置反复修改。
提供日志,不要只描述症状
不好的说法:
It does not work.
更好的说法:
Claude Code returns model not found. LiteLLM logs show no localhost request after I set ANTHROPIC_BASE_URL to ...
最好的说法:
Claude Code returns model not found. My ANTHROPIC_MODEL is X, LiteLLM model_name is Y, and LiteLLM logs show the request arriving but failing after provider routing.
当你能给出发生故障那一层的证据时,这个 skill 的表现会明显更好。
让 agent 把“根因”和“修复动作”分开说
这套配置经常会叠加多层错误。可以要求输出按以下结构组织:
- 可能的根因
- 需要检查的具体文件或变量
- 最小修复动作
- 验证步骤
这种结构更容易执行,也更方便你事后审查。
当行为看起来过时,记得回看参考说明
如果你发现指导内容和自己实际看到的行为对不上,可以明确让 agent 参考:
references/doc-verified-notes.md
这个文件会区分:哪些结论来自文章,哪些是根据当前 LiteLLM 行为重新核验过的内容,其中也包括 github_copilot/<model> 这条命名规则。
第一条请求跑通后,再做进一步优化
当第一条请求已经成功后,再逐步优化这些内容:
- 持久化配置放在哪里
- shell profile 的清理
- 更安全的默认值
- 模型切换
- 给团队写更清晰的本地文档
在确认端到端流量打通之前,不要过早优化。
迭代过程中重点防这几类错误
最容易反复出现的错误包括:
- 一次性修改多个配置文件
- 误以为模型名差不多就行
- 忘记 Claude Code 在本地仍然需要一个非空 Anthropic token
- 不检查 LiteLLM 日志
- 临时测试都还没成功,就先去改持久化配置
想让这个 skill 输出更高质量,最佳提问方式是什么
针对 running-claude-code-via-litellm-copilot for Skill Installation,最好使用这种提示词模式:
Use the running-claude-code-via-litellm-copilot skill to troubleshoot my current setup. I am on [OS/shell]. Claude Code is configured with [values]. LiteLLM is started with [method]. My intended provider route is github_copilot/[model]. My ANTHROPIC_MODEL is [value]. Here are the logs and the exact error. Give me the smallest fix first, then a verification step, and pause before suggesting persistent edits.
这样这个 skill 才能拿到足够上下文,给出真正可安装、贴合你机器实际情况的指导,而不是泛泛的配置说明。
