Y

distill-mentor

作者 ybq22

distill-mentor 可将公开学术数据整理为可复用的导师风格 skill。支持浏览器优先的信息采集、深度论文分析、双语输出,并将生成结果保存到 `~/.claude/mentors/` 和 `~/.claude/skills/`。

Stars81
收藏0
评论0
收录时间2026年4月6日
分类Agent 编排
安装命令
npx skills add ybq22/supervisor --skill distill-mentor
编辑评分

该 skill 评分为 68/100,表示它可在目录中上线:其描述了一个真实、可由用户触发的工作流,并能产出有实际价值的结果;但在安装前,采用者应预期仍需自行补足部分操作细节,并面对仓库信息不够一致的问题。

68/100
亮点
  • `SKILL.md` 明确给出了触发短语、参数格式、允许使用的工具,以及在 `~/.claude/mentors/` 和 `~/.claude/skills/` 下的预期输出。
  • 该仓库提供了远超占位说明的工作流文档,包括 `QUICKSTART.md`、使用指南、更新日志说明,以及 browser search 与 deep analysis 行为示例。
  • 它并非只是一个通用 prompt,而是定义了清晰的多步骤导师蒸馏流程:采集资料、分析论文与风格、评估数据质量,并生成可对话的导师 skill。
注意点
  • 安装与执行说明的清晰度不够稳定:从结构信号看,`SKILL.md` 中没有安装命令,而文档又提到了 `test-puppeteer.js`、`test-comprehensive-search.js` 等脚本,但这些脚本在提供的目录树中并不可见。
  • 其可信度受到内部不一致影响,例如仓库 slug 为 `supervisor`,而 skill 名称却是 `distill-mentor`;此外,文档声称已可用于生产,但所述文件路径和脚本与当前可见的仓库布局并未完全对应。
概览

distill-mentor 技能概览

distill-mentor 是做什么的

distill-mentor 技能会通过收集公开信息、分析论文与表达风格,把一位真实的学术导师沉淀成可复用的 AI persona,方便你后续持续对话使用。它面向的不是“一次性 prompt”需求,而是更看重长期可复用结果的用户:比如比较潜在导师的学生、研究某个实验室研究偏好的研究者,或想打造可分享数字导师的教育工作者。

谁适合安装 distill-mentor 技能

如果你需要的是结构化的导师画像与导师风格提炼,而不只是一个摘要,那么这个 distill-mentor skill 会更适合你。它尤其适合关注研究方向、方法论偏好、沟通风格和学术理念的用户。
如果你只是想快速拿到一段 bio 或论文列表,普通 prompt 会更快;但如果你希望把产物保存到 ~/.claude/mentors/,并在 ~/.claude/skills/ 下生成一个可复用技能,那么 distill-mentor 明显更对路。

distill-mentor 的差异化优势

它最核心的区别在于“深度”。仓库里明确写到了以浏览器优先的采集流程、浏览器失败后的回退搜索机制、双语支持,以及在 docs/DEEP_ANALYSIS_GUIDE.md 中更深入的论文分析方式。和泛用 prompt 相比,distill-mentor for Agent Orchestration 提供了清晰的触发方式、预期输出和可重复执行的工作流,目标是基于公开证据构建“导师式助手”,而不是临时模仿一个口吻。

如何使用 distill-mentor 技能

distill-mentor 安装与首次运行

在 Claude Code 或兼容的 skill runtime 中,添加仓库后即可直接调用该技能。一个实用的起步方式是:

  • npx skills add ybq22/supervisor
  • /distill-mentor "Geoffrey Hinton" --affiliation "University of Toronto"
  • 可选快速模式:/distill-mentor "Geoffrey Hinton" --no-browser

文档给出的默认方式是浏览器搜索;如果浏览器搜索失败,则会回退到类似 DuckDuckGo 的采集模式。仓库还注明需要 Node.js >=18,而浏览器路径可能会通过 puppeteer 拉取 Chromium,这会直接影响运行环境体积,以及 CI 类安装场景的可行性。

哪些输入能明显提升 distill-mentor 使用效果

这个技能在以下信息齐全时效果最好:

  • 导师全名
  • 当姓名有歧义时提供所属机构
  • 在第一条消息里说明语言语境
  • 你真实想完成的任务目标

一个较弱的 prompt 是:distill Geoffrey Hinton
一个更强的 prompt 是:Create a distill-mentor profile for Geoffrey Hinton at University of Toronto. I care most about his research evolution, supervision style, and how he frames risky ideas for PhD students.

后者能更好地帮助系统消除检索歧义,也能明确告诉分析器,在生成导师 persona 时应该重点突出哪些维度。

采用 distill-mentor 的最佳工作流,以及先看哪些文件

如果你想快速判断这个 distill-mentor 是否适合安装,建议按以下顺序阅读:

  1. QUICKSTART.md:看命令、运行模式、输出路径和质量评分
  2. SKILL.md:看触发条件、允许使用的工具和运行时行为
  3. docs/DEEP_ANALYSIS_GUIDE.md:看“深度分析”到底会抽取出哪些内容
  4. docs/CHANGELOG.md:理解浏览器优先策略的变化,以及 --no-browser 的意义

如果你不是只想跑默认流程,而是希望调优输出,再继续看 prompts/intake.mdprompts/analyzer.mdprompts/style-analyzer.mdprompts/deep-paper-analyzer.mdprompts/builder.md

实际限制与输出预期

使用 distill-mentor 前,最好先接受两个现实权衡。
第一,结果质量高度依赖公开信息足迹:有较多论文、演讲、主页资料的知名学者,通常会比公开资料稀少的导师产出更好。
第二,基于浏览器的采集更慢,但信息更丰富;--no-browser 更快,但完整性会差一些。

仓库自己的 quickstart 也明确把质量定义为“数据依赖型”。所以如果某位导师得分偏低,或者输出显得比较泛泛,不要急着否定技能本身,先补充所属机构、代表论文或额外来源背景,再来判断效果。

distill-mentor 技能 FAQ

distill-mentor 比普通 prompt 更好吗?

通常是的,尤其当你需要一致性和可保存输出时。普通 prompt 当然也能模仿导师口吻,但在基于证据的综合提炼上,distill-mentor usage 更强,因为它把 intake、资料收集、论文分析、风格分析和技能构建拆成了明确阶段。这种结构能减少拍脑袋式生成,也更方便后续复用。

什么时候不该用 distill-mentor 技能?

如果目标人物几乎没有公开资料、你需要事实层面的绝对完整性保证,或者你的需求只是简单摘要,那就不建议用它。
此外,如果涉及机构内部的私有记录,除非你能通过自己的工作流以合法且技术可行的方式提供这些材料,否则它也不是合适的工具。

对新手友好吗?

整体算友好。命令面不复杂,尤其看完 QUICKSTART.md 后就能上手。新手最常见的门槛主要有两个:一是浏览器搜索相关的环境配置,二是理解为什么有的导师效果很好、有的导师效果一般。
如果你想走最省力的路径,建议先拿一位知名研究者做测试,再逐步尝试公开资料较少的目标。

distill-mentor 能融入更大的 agent 工作流吗?

可以。distill-mentor for Agent Orchestration 很适合这样的拆分流程:一个 agent 负责收集证据,另一个分析风格,再由另一个把结果打包成可复用的导师技能。相比单体式 prompt,仓库中的 prompt 文件和分阶段分析设计,更容易把职责切开。

如何进一步提升 distill-mentor 技能效果

给 distill-mentor 更强的消歧信号

提升效果的最高杠杆,其实是输入质量。导师姓名比较常见时,尽量补充所属机构、研究领域、代表论文或实验室名称。
例如:Distill Fei-Fei Li, Stanford, focus on computer vision leadership, student-facing advice style, and how she connects technical work to broader impact.

这样能明显降低错误来源检索的概率,也能让生成出的导师在语气和关注重点上更贴近目标人物。

让 distill-mentor 朝你真正需要的输出收敛

明确告诉技能,你想要的导师产物是哪一类:

  • advisor-style critique
  • research direction guidance
  • writing feedback voice
  • lab culture and philosophy
  • methodology preferences

如果不说明,输出很容易滑向泛泛的学术人物简介。
从这些 prompt 文件来看,系统本身能抽取研究主题、方法论、表达风格和公开形象等维度,所以你最好提前点明:下游使用里,哪些维度最重要。

提前处理 distill-mentor 的常见失败模式

常见问题包括:姓名歧义、证据过薄、过度受知名演讲影响,以及只基于少量论文做浅层风格模仿。
如果第一次结果看起来信息很多,但“不像导师”,可以这样调整:

  • 从 quick mode 切回默认 browser mode
  • 补充 affiliation
  • 明确要求更重视 recent papers,而不是历史声誉

如果公开网页结果占比过高,就把本次运行重点锚定在论文分析,而不是人物 biography。

在第一次输出后继续迭代

最好的 distill-mentor guide 使用方式其实是两遍法:

  1. 先生成第一版导师
  2. 再针对缺口做精修

有用的后续指令包括:

  • Rebuild this distill-mentor with more weight on recent publications from 2022 onward
  • Reduce biography and increase supervision-style cues
  • Compare methodological preferences across early, mid, and recent papers
  • List weak evidence areas before regenerating the mentor skill

这样一来,distill-mentor 就不再只是一次性生成器,而会变成一个可控的处理流水线;这也是它相对普通 prompting 最有优势的地方。

评分与评论

暂无评分
分享你的评价
登录后即可为这个技能评分并发表评论。
G
0/10000
最新评论
保存中...