distill-mentor
作者 ybq22distill-mentor 可将公开学术数据整理为可复用的导师风格 skill。支持浏览器优先的信息采集、深度论文分析、双语输出,并将生成结果保存到 `~/.claude/mentors/` 和 `~/.claude/skills/`。
该 skill 评分为 68/100,表示它可在目录中上线:其描述了一个真实、可由用户触发的工作流,并能产出有实际价值的结果;但在安装前,采用者应预期仍需自行补足部分操作细节,并面对仓库信息不够一致的问题。
- `SKILL.md` 明确给出了触发短语、参数格式、允许使用的工具,以及在 `~/.claude/mentors/` 和 `~/.claude/skills/` 下的预期输出。
- 该仓库提供了远超占位说明的工作流文档,包括 `QUICKSTART.md`、使用指南、更新日志说明,以及 browser search 与 deep analysis 行为示例。
- 它并非只是一个通用 prompt,而是定义了清晰的多步骤导师蒸馏流程:采集资料、分析论文与风格、评估数据质量,并生成可对话的导师 skill。
- 安装与执行说明的清晰度不够稳定:从结构信号看,`SKILL.md` 中没有安装命令,而文档又提到了 `test-puppeteer.js`、`test-comprehensive-search.js` 等脚本,但这些脚本在提供的目录树中并不可见。
- 其可信度受到内部不一致影响,例如仓库 slug 为 `supervisor`,而 skill 名称却是 `distill-mentor`;此外,文档声称已可用于生产,但所述文件路径和脚本与当前可见的仓库布局并未完全对应。
distill-mentor 技能概览
distill-mentor 是做什么的
distill-mentor 技能会通过收集公开信息、分析论文与表达风格,把一位真实的学术导师沉淀成可复用的 AI persona,方便你后续持续对话使用。它面向的不是“一次性 prompt”需求,而是更看重长期可复用结果的用户:比如比较潜在导师的学生、研究某个实验室研究偏好的研究者,或想打造可分享数字导师的教育工作者。
谁适合安装 distill-mentor 技能
如果你需要的是结构化的导师画像与导师风格提炼,而不只是一个摘要,那么这个 distill-mentor skill 会更适合你。它尤其适合关注研究方向、方法论偏好、沟通风格和学术理念的用户。
如果你只是想快速拿到一段 bio 或论文列表,普通 prompt 会更快;但如果你希望把产物保存到 ~/.claude/mentors/,并在 ~/.claude/skills/ 下生成一个可复用技能,那么 distill-mentor 明显更对路。
distill-mentor 的差异化优势
它最核心的区别在于“深度”。仓库里明确写到了以浏览器优先的采集流程、浏览器失败后的回退搜索机制、双语支持,以及在 docs/DEEP_ANALYSIS_GUIDE.md 中更深入的论文分析方式。和泛用 prompt 相比,distill-mentor for Agent Orchestration 提供了清晰的触发方式、预期输出和可重复执行的工作流,目标是基于公开证据构建“导师式助手”,而不是临时模仿一个口吻。
如何使用 distill-mentor 技能
distill-mentor 安装与首次运行
在 Claude Code 或兼容的 skill runtime 中,添加仓库后即可直接调用该技能。一个实用的起步方式是:
npx skills add ybq22/supervisor/distill-mentor "Geoffrey Hinton" --affiliation "University of Toronto"- 可选快速模式:
/distill-mentor "Geoffrey Hinton" --no-browser
文档给出的默认方式是浏览器搜索;如果浏览器搜索失败,则会回退到类似 DuckDuckGo 的采集模式。仓库还注明需要 Node.js >=18,而浏览器路径可能会通过 puppeteer 拉取 Chromium,这会直接影响运行环境体积,以及 CI 类安装场景的可行性。
哪些输入能明显提升 distill-mentor 使用效果
这个技能在以下信息齐全时效果最好:
- 导师全名
- 当姓名有歧义时提供所属机构
- 在第一条消息里说明语言语境
- 你真实想完成的任务目标
一个较弱的 prompt 是:distill Geoffrey Hinton
一个更强的 prompt 是:Create a distill-mentor profile for Geoffrey Hinton at University of Toronto. I care most about his research evolution, supervision style, and how he frames risky ideas for PhD students.
后者能更好地帮助系统消除检索歧义,也能明确告诉分析器,在生成导师 persona 时应该重点突出哪些维度。
采用 distill-mentor 的最佳工作流,以及先看哪些文件
如果你想快速判断这个 distill-mentor 是否适合安装,建议按以下顺序阅读:
QUICKSTART.md:看命令、运行模式、输出路径和质量评分SKILL.md:看触发条件、允许使用的工具和运行时行为docs/DEEP_ANALYSIS_GUIDE.md:看“深度分析”到底会抽取出哪些内容docs/CHANGELOG.md:理解浏览器优先策略的变化,以及--no-browser的意义
如果你不是只想跑默认流程,而是希望调优输出,再继续看 prompts/intake.md、prompts/analyzer.md、prompts/style-analyzer.md、prompts/deep-paper-analyzer.md 和 prompts/builder.md。
实际限制与输出预期
使用 distill-mentor 前,最好先接受两个现实权衡。
第一,结果质量高度依赖公开信息足迹:有较多论文、演讲、主页资料的知名学者,通常会比公开资料稀少的导师产出更好。
第二,基于浏览器的采集更慢,但信息更丰富;--no-browser 更快,但完整性会差一些。
仓库自己的 quickstart 也明确把质量定义为“数据依赖型”。所以如果某位导师得分偏低,或者输出显得比较泛泛,不要急着否定技能本身,先补充所属机构、代表论文或额外来源背景,再来判断效果。
distill-mentor 技能 FAQ
distill-mentor 比普通 prompt 更好吗?
通常是的,尤其当你需要一致性和可保存输出时。普通 prompt 当然也能模仿导师口吻,但在基于证据的综合提炼上,distill-mentor usage 更强,因为它把 intake、资料收集、论文分析、风格分析和技能构建拆成了明确阶段。这种结构能减少拍脑袋式生成,也更方便后续复用。
什么时候不该用 distill-mentor 技能?
如果目标人物几乎没有公开资料、你需要事实层面的绝对完整性保证,或者你的需求只是简单摘要,那就不建议用它。
此外,如果涉及机构内部的私有记录,除非你能通过自己的工作流以合法且技术可行的方式提供这些材料,否则它也不是合适的工具。
对新手友好吗?
整体算友好。命令面不复杂,尤其看完 QUICKSTART.md 后就能上手。新手最常见的门槛主要有两个:一是浏览器搜索相关的环境配置,二是理解为什么有的导师效果很好、有的导师效果一般。
如果你想走最省力的路径,建议先拿一位知名研究者做测试,再逐步尝试公开资料较少的目标。
distill-mentor 能融入更大的 agent 工作流吗?
可以。distill-mentor for Agent Orchestration 很适合这样的拆分流程:一个 agent 负责收集证据,另一个分析风格,再由另一个把结果打包成可复用的导师技能。相比单体式 prompt,仓库中的 prompt 文件和分阶段分析设计,更容易把职责切开。
如何进一步提升 distill-mentor 技能效果
给 distill-mentor 更强的消歧信号
提升效果的最高杠杆,其实是输入质量。导师姓名比较常见时,尽量补充所属机构、研究领域、代表论文或实验室名称。
例如:Distill Fei-Fei Li, Stanford, focus on computer vision leadership, student-facing advice style, and how she connects technical work to broader impact.
这样能明显降低错误来源检索的概率,也能让生成出的导师在语气和关注重点上更贴近目标人物。
让 distill-mentor 朝你真正需要的输出收敛
明确告诉技能,你想要的导师产物是哪一类:
- advisor-style critique
- research direction guidance
- writing feedback voice
- lab culture and philosophy
- methodology preferences
如果不说明,输出很容易滑向泛泛的学术人物简介。
从这些 prompt 文件来看,系统本身能抽取研究主题、方法论、表达风格和公开形象等维度,所以你最好提前点明:下游使用里,哪些维度最重要。
提前处理 distill-mentor 的常见失败模式
常见问题包括:姓名歧义、证据过薄、过度受知名演讲影响,以及只基于少量论文做浅层风格模仿。
如果第一次结果看起来信息很多,但“不像导师”,可以这样调整:
- 从 quick mode 切回默认 browser mode
- 补充 affiliation
- 明确要求更重视 recent papers,而不是历史声誉
如果公开网页结果占比过高,就把本次运行重点锚定在论文分析,而不是人物 biography。
在第一次输出后继续迭代
最好的 distill-mentor guide 使用方式其实是两遍法:
- 先生成第一版导师
- 再针对缺口做精修
有用的后续指令包括:
Rebuild this distill-mentor with more weight on recent publications from 2022 onwardReduce biography and increase supervision-style cuesCompare methodological preferences across early, mid, and recent papersList weak evidence areas before regenerating the mentor skill
这样一来,distill-mentor 就不再只是一次性生成器,而会变成一个可控的处理流水线;这也是它相对普通 prompting 最有优势的地方。
