X

running-claude-code-via-litellm-copilot

作者 xixu-me

running-claude-code-via-litellm-copilot 说明如何通过本地 LiteLLM 代理将 Claude Code 路由到 GitHub Copilot,包括对齐 ANTHROPIC_BASE_URL 与模型名称、验证 localhost 流量,以及排查 401/403、model-not-found 和代理兼容性问题。

Stars6
收藏0
评论0
收录时间2026年3月31日
分类技能安装
安装命令
npx skills add https://github.com/xixu-me/skills --skill running-claude-code-via-litellm-copilot
编辑评分

该技能评分为 78/100,对于明确想通过本地 LiteLLM 代理把 Claude Code 路由到 GitHub Copilot 的用户来说,是一个值得收录的目录候选。仓库提供了清晰的适用触发场景、较强的实际配置与排障导向,并明确提示这是一种高级变通方案,而非官方工作流;不过在实际安装与运行时,用户仍需要自行做一些判断,因为仓库未附带脚本或现成的安装命令。

78/100
亮点
  • 在 frontmatter 和 “When To Use” 中清楚说明了适用条件,包括 model-not-found、localhost 没有流量以及 GitHub 401/403 等配置和排障场景。
  • 操作层面的指导较为扎实:技能明确解释了关键兼容性规则,例如使用 ANTHROPIC_BASE_URL、精确匹配 ANTHROPIC_MODEL、本地认证 token 不能为空,以及 `drop_params: true`。
  • 对于纯指导型技能来说,可信度信号高于平均水平:仓库额外提供了一个经文档核验的说明文件,用来区分基于文章整理的指导内容与依据 LiteLLM 文档进一步校正后的更新。
注意点
  • 落地使用还不够开箱即用:SKILL.md 没有安装命令,仓库里也没有脚本、规则或辅助资源来减少配置过程中的试错和猜测。
  • 该工作流被明确描述为一种高级变通方案,并不保证获得 GitHub 官方支持,也不承诺长期兼容。
概览

running-claude-code-via-litellm-copilot skill 概览

running-claude-code-via-litellm-copilot skill 用来帮你搭建一条特定的代理工作流:让 Claude Code 继续使用它 привыч用的 Anthropic 风格 API,但把实际请求转发到本地 LiteLLM 服务器,再由后者继续转到 GitHub Copilot。它主要适合这几类需求:尽量减少对 Anthropic API 的直接调用、测试更便宜的方案,或者排查为什么 Claude Code 没有连到你预期的后端。

这个 skill 最适合哪些人

这个 running-claude-code-via-litellm-copilot skill 最适合:

  • 已经在使用 Claude Code 的开发者
  • 能接受修改环境变量和本地配置文件的用户
  • 想比较直连 Anthropic 与本地 LiteLLM 代理差异的人
  • 正在排查 401/403model not found,或“Claude Code 没有打到 localhost”这类问题的人

它并不是面向新手的 Claude Code、LiteLLM 或 GitHub Copilot 入门教程。

这个 skill 真正解决的问题

大多数用户要的并不只是“仓库内容总结”,而是一条真正能跑通的路径,用来:

  1. 让 Claude Code 通过 LiteLLM 运行;
  2. 把 LiteLLM 指向 GitHub Copilot;
  3. 让模型名完全对齐;
  4. 验证流量确实经过代理;
  5. 快速修正常见的鉴权和兼容性故障。

这正是这个 skill 的价值所在。

这个 skill 的差异点在哪里

它真正有用的地方在于:这是针对脆弱集成链路的实操指导,不是泛泛而谈的 prompt 层封装。它会重点强调那些最容易卡住落地的实际约束:

  • 必须用 ANTHROPIC_BASE_URL 把 Claude Code 指向 LiteLLM
  • Claude Code 在本地仍然要求一个非空的 Anthropic token
  • LiteLLM 应该使用 github_copilot/<model> 这种 provider 命名模式
  • Claude Code 的 ANTHROPIC_MODEL 必须与 LiteLLM 的 model_name 完全一致
  • drop_params: true 对兼容性很关键
  • GitHub 首次 device authorization 往往要等第一条真实请求发出后才会出现
  • 判断是否成功时,应以 LiteLLM 日志为准,而不是凭感觉觉得配置“应该没问题”

安装前先判断是否值得用

如果你的核心问题是“怎么才能让这套代理方案在我机器上真正跑起来”,那就适合用 running-claude-code-via-litellm-copilot。如果你只是想正常使用 Claude Code、直连 Anthropic,或者只想看 GitHub Copilot 的通用文档,那就可以跳过。

如何使用 running-claude-code-via-litellm-copilot skill

安装 running-claude-code-via-litellm-copilot skill

从 skills 仓库安装:

npx skills add https://github.com/xixu-me/skills --skill running-claude-code-via-litellm-copilot

如果你的环境使用的是其他 skill loader,也可以直接从这里添加:

https://github.com/xixu-me/skills/tree/main/skills/running-claude-code-via-litellm-copilot

先读这两个文件

如果你是在做这次 running-claude-code-via-litellm-copilot install,建议按这个顺序先看:

  1. skills/running-claude-code-via-litellm-copilot/SKILL.md
  2. skills/running-claude-code-via-litellm-copilot/references/doc-verified-notes.md

这个顺序很重要,原因是:

  • SKILL.md 提供了实际操作流程和决策规则。
  • references/doc-verified-notes.md 会说明哪些内容是基于文章结论,哪些又根据 LiteLLM 文档做了更严格校准;这点很关键,因为这套配置对兼容性非常敏感。

先确认最小可用的几块配置

一套能成功跑通的配置,通常需要这四项同时对齐:

  • Claude Code 通过 ANTHROPIC_BASE_URL 指向 LiteLLM
  • 本地提供一个非空的 ANTHROPIC_API_KEY 或等价 token 值,让 Claude Code 能启动
  • LiteLLM 已配置为使用 github_copilot/<model>
  • Claude Code 和 LiteLLM 之间的模型名完全一致

这四项只要有一项不对,整个流程就很容易以一种很迷惑的方式失败。

这个 skill 需要你提供哪些输入

如果你想更有效地使用这份 running-claude-code-via-litellm-copilot usage 指南,最好提供:

  • 你的操作系统和 shell
  • Claude Code 是否已经安装并可正常运行
  • LiteLLM 是否已经安装,以及你是怎么启动它的
  • 你当前的 ANTHROPIC_BASE_URL
  • 你打算用的 Copilot 后端模型名
  • 如果配置失败,贴出完整报错文本
  • 你是否愿意修改 ~/.claude/settings.json 或 shell profile 文件

这些信息能让 skill 给出贴合实际环境的命令,而不是靠猜。

把模糊目标改写成高质量提示词

较弱的提示词:

Help me use Claude Code with LiteLLM and Copilot.

更强的提示词:

I want Claude Code to send requests to a local LiteLLM proxy on macOS zsh, then forward to GitHub Copilot. Show the minimum config, the environment variables I need, how to set ANTHROPIC_BASE_URL, how to choose the exact ANTHROPIC_MODEL value so it matches LiteLLM model_name, and how to verify traffic in LiteLLM logs before editing persistent files.

为什么这个版本更好:

  • 直接说明了 OS 和 shell
  • 明确要求完整配置链路
  • 一开始就点出了模型名匹配问题
  • 要求先做安全验证,再改持久化配置

首次配置建议采用的工作流

不要一上来把所有配置一起改掉,建议按这个顺序做:

  1. 检查当前的 Claude Code 和 LiteLLM 配置
  2. 先选定一个目标模型
  3. 在 LiteLLM 中配置 github_copilot/<model>
  4. 如有需要,设置 drop_params: true 以兼容 Anthropic 风格请求
  5. ANTHROPIC_BASE_URL 把 Claude Code 指向 LiteLLM
  6. ANTHROPIC_MODEL 设成与 LiteLLM model_name 完全一致
  7. 发起一次小请求
  8. 观察 LiteLLM 日志
  9. 如果出现提示,完成 GitHub device authorization
  10. 确认没问题后,再去改持久化配置

这样做能降低“多个修改同时发生,反而把真正故障点藏起来”的风险。

最重要的兼容性规则

从实操价值看,这个仓库里最关键的一条规则就是:Claude Code 的 ANTHROPIC_MODEL 必须与 LiteLLM 的 model_name 完全一致。

不要把模型命名当成“大致差不多就行”。看起来只差一点点,也足以导致路由失败,并产生误导性的错误信息。

如何确认代理真的生效了

不要看到“命令跑了”就停下来。至少要核实以下几点:

  • Claude Code 的目标地址确实是你的本地 ANTHROPIC_BASE_URL
  • LiteLLM 日志里确实收到了请求
  • 请求确实是通过 GitHub Copilot provider 路径转发出去的
  • 响应是经由 LiteLLM 返回的,而不是直接走了 Anthropic

如果根本没有 localhost 流量,问题通常还没走到 Copilot 鉴权那一步。

这个 skill 特别擅长处理哪些失败场景

这份 running-claude-code-via-litellm-copilot guide 尤其适合处理:

  • 因模型名不一致导致的 model not found
  • GitHub Copilot 鉴权阶段出现的 401403
  • 请求根本没有到达 LiteLLM
  • 虽然后端实际是 LiteLLM,但 Claude Code 仍然要求 Anthropic token
  • 因不支持的请求参数引发的兼容性问题

这正是通用型 prompt 最容易浪费时间的那类问题。

区分 explanation mode 和 execution mode

上游 skill 明确区分了两种模式:

  • explanation mode:给出最小且正确的一组命令、文件和检查点
  • execution mode:检查当前机器状态,按 shell 和 OS 做适配,并在修改持久化配置前停下来确认

这个区别很重要。如果你希望对方直接协助你落地配置,就要明确说出来;如果你现在只需要方案,最好先要求一份非破坏性的 walkthrough。

一个可以复用的实用提示词

调用这个 skill 时,可以直接用下面这类提示词:

Use the running-claude-code-via-litellm-copilot skill. I want a non-destructive setup plan for routing Claude Code through a local LiteLLM proxy to GitHub Copilot on Ubuntu bash. Please inspect the likely config points, show the exact variables and file paths to check, explain the github_copilot/<model> naming rule, call out where ANTHROPIC_MODEL must match LiteLLM model_name exactly, and give a verification checklist using LiteLLM logs before any persistent edits.

running-claude-code-via-litellm-copilot skill 常见问题

running-claude-code-via-litellm-copilot 适合初学者吗?

通常只适合那些已经能接受本地代理、环境变量和配置排障的人。这个 skill 的定位很准确,但这条工作流本身依然偏进阶,而且可能因为多个细小原因而失败。

这个 skill 相比普通 prompt 强在哪里?

普通 prompt 往往只能解释“原理上可以这么做”。而 running-claude-code-via-litellm-copilot skill 的优势在于:当你真的需要精确的路由前提、首轮排障规则,以及避免走入死胡同的配置顺序时,它更靠谱。

这个 skill 能保证 GitHub Copilot 一定可用吗?

不能。源材料对它的定位是 workaround,而不是 GitHub 官方保证的工作流。更适合把它当作一份实操指导,而不是长期兼容性的承诺。

什么情况下不该用 running-claude-code-via-litellm-copilot

以下情况不建议使用:

  • 你对直连 Anthropic 已经满意
  • 你不希望本地代理介入链路
  • 你需要官方支持的企业级集成方案
  • 你要找的是 Claude Code 的通用上手指南,而不是这种特定路由模式

这个 skill 的核心诉求主要是省钱吗?

降低成本确实是动机之一,但不是唯一原因。很多用户更看重的是路由控制、后端替换能力,或者排查为什么 Claude Code 打到了错误的 endpoint。

最可能卡住配置的点是什么?

排第一的是 Claude Code 和 LiteLLM 之间模型名没有完全一致。其次常见的就是鉴权问题,以及根本没有 localhost 流量进入 LiteLLM。

这个 skill 附带脚本或自动化工具吗?

没有看到仓库快照里提供什么大型辅助脚本。这是一个以指导说明为主的 skill,所以更适合预期为:你需要手动把这些说明应用到自己的机器和配置里。

如何把 running-claude-code-via-litellm-copilot skill 用得更好

从你当前状态说起,不要只描述目标状态

想让 running-claude-code-via-litellm-copilot 给出更高质量结果,先告诉 agent 你现在已经有什么:

  • 已安装的工具
  • 当前配置文件
  • 当前环境变量
  • 你执行过的精确命令
  • 完整错误输出

这样可以避免 assistant 以为你要的是一套“从零开始的干净安装”,而你真正需要的其实是排障。

先请求单模型配置

不要一开始就上多个模型,或者提出“把所有东西都配好”这种大而泛的需求。先锁定一个模型、一个 endpoint、一次验证步骤。这样更容易缩小问题范围,也更方便解读日志。

明确给出准确的模型字符串

求助时,把下面两个值都贴出来:

  • LiteLLM 的 model_name
  • Claude Code 的 ANTHROPIC_MODEL

这是定位最常见故障的最快方式。

优先请求“先验证、后持久化”的方案

一个高质量请求可以这样写:

Before suggesting persistent edits, give me a temporary test setup and a checklist to confirm Claude Code is reaching LiteLLM and LiteLLM is forwarding to GitHub Copilot.

这样更安全,也能减少不必要的配置反复修改。

提供日志,不要只描述症状

不好的说法:

It does not work.

更好的说法:

Claude Code returns model not found. LiteLLM logs show no localhost request after I set ANTHROPIC_BASE_URL to ...

最好的说法:

Claude Code returns model not found. My ANTHROPIC_MODEL is X, LiteLLM model_name is Y, and LiteLLM logs show the request arriving but failing after provider routing.

当你能给出发生故障那一层的证据时,这个 skill 的表现会明显更好。

让 agent 把“根因”和“修复动作”分开说

这套配置经常会叠加多层错误。可以要求输出按以下结构组织:

  • 可能的根因
  • 需要检查的具体文件或变量
  • 最小修复动作
  • 验证步骤

这种结构更容易执行,也更方便你事后审查。

当行为看起来过时,记得回看参考说明

如果你发现指导内容和自己实际看到的行为对不上,可以明确让 agent 参考:

references/doc-verified-notes.md

这个文件会区分:哪些结论来自文章,哪些是根据当前 LiteLLM 行为重新核验过的内容,其中也包括 github_copilot/<model> 这条命名规则。

第一条请求跑通后,再做进一步优化

当第一条请求已经成功后,再逐步优化这些内容:

  • 持久化配置放在哪里
  • shell profile 的清理
  • 更安全的默认值
  • 模型切换
  • 给团队写更清晰的本地文档

在确认端到端流量打通之前,不要过早优化。

迭代过程中重点防这几类错误

最容易反复出现的错误包括:

  • 一次性修改多个配置文件
  • 误以为模型名差不多就行
  • 忘记 Claude Code 在本地仍然需要一个非空 Anthropic token
  • 不检查 LiteLLM 日志
  • 临时测试都还没成功,就先去改持久化配置

想让这个 skill 输出更高质量,最佳提问方式是什么

针对 running-claude-code-via-litellm-copilot for Skill Installation,最好使用这种提示词模式:

Use the running-claude-code-via-litellm-copilot skill to troubleshoot my current setup. I am on [OS/shell]. Claude Code is configured with [values]. LiteLLM is started with [method]. My intended provider route is github_copilot/[model]. My ANTHROPIC_MODEL is [value]. Here are the logs and the exact error. Give me the smallest fix first, then a verification step, and pause before suggesting persistent edits.

这样这个 skill 才能拿到足够上下文,给出真正可安装、贴合你机器实际情况的指导,而不是泛泛的配置说明。

评分与评论

暂无评分
分享你的评价
登录后即可为这个技能评分并发表评论。
G
0/10000
最新评论
保存中...