research
作者 MarsWang42面向复杂主题的结构化深度研究工作流。了解 research 技能的工作方式、所需条件,以及如何高效使用其先规划后执行的流程。
该技能评分为 72/100,表示可以收录,也确实能帮助智能体以更少猜测开展结构化深度研究;但目录用户应预期它更像是文档驱动的工作流说明,而不是带有配套文件或安装指引的完整可运行包。
- 定义了清晰的两阶段工作流:先由 planning agent 制定计划,再由用户审核,随后由 execution agent 在全新上下文中执行。
- 提供了明确的 orchestrator 指令和预期输入,使其在深度主题研究场景中的触发条件易于识别。
- 包含实用的输出结构,例如先创建计划文件,并在执行阶段仅传递计划文件路径,为智能体协作提供了可复用的协调框架。
- 全部价值都集中在一个 `SKILL.md` 文件中,没有配套脚本、参考资料或示例,因此实际采用效果高度依赖于是否能正确理解文档说明。
- 该工作流提到了特定环境下的路径以及 agent/task 行为,但从当前摘录中看不到安装命令或与仓库关联的工件,难以验证这些前提是否成立。
research skill 概览
research skill 的作用是什么
research skill 是一套结构化的深度研究工作流,用来理解某项技术、概念或复杂主题,避免把“如何研究”和“执行研究”混在同一个模糊提示里。它不是让一个 agent 同时决定怎么研究并直接开展研究,而是把整个过程拆成规划阶段和执行阶段。这种设计,正是它值得安装的核心原因。
谁适合使用这个 research skill
这个 research skill 最适合需要用可复用方式系统调查主题的用户,比如软件架构、协议、学术概念,或不熟悉的系统。尤其当你在意范围控制、问题定义,以及在正式研究前先做审查时,它会很有价值。对于 research for Academic Research、技术尽调和概念梳理来说,这一步额外的规划,往往比泛泛一句“告诉我 X 是什么”更有用。
它帮助你完成什么任务
它真正解决的任务,不是“生成一段总结”,而是:先定义主题,识别所需上下文,制定研究策略,暂停等待用户确认,然后在更新鲜的上下文和更清晰的边界下执行研究。这样可以减少方向跑偏、内容浮浅,以及把 token 浪费在错误角度上的情况。
采用前需要考虑的关键点
这个 skill 的仓库结构很轻量:真正有用的逻辑几乎都在 SKILL.md 里。你不能依赖额外的 helper script、参考文件或安装元数据,因此是否好用,很大程度取决于你的 agent runtime 是否支持它预期的多 agent 流程:包括 planning agent、orchestrator 和 execution agent。如果你只是想要一次性直接出答案,这个 research skill 可能会显得比预期更慢。
如何使用 research skill
安装判断时先看哪里
如果你在评估这次 research install 是否值得,首先看 EN/.agents/skills/research/SKILL.md。这个文件里包含了实际工作流、输入要求以及编排方式。当前仓库证据没有显示这个 skill 自带专门的安装命令,所以应使用你的 agent 平台支持的 skill 加载方式;加载后,重点确认 runtime 是否能够:
- 调用
/research - 启动一个 planning agent
- 在中途暂停并等待确认
- 根据计划文件路径启动 execution agent
如果你的环境无法在多个 agent 之间干净地传递任务,那么 research skill 的核心价值会明显下降。
research skill 需要什么输入
最低要求是提供一个主题。但如果你补充以下信息,结果通常会更好:
- 你到底要做出什么决策
- 你希望研究到多深
- 时间、受众、已有知识等约束
- 项目背景或领域上下文
较弱的输入:
/research OAuth2
更强的输入:
/research Research OAuth2 for a backend team migrating from session auth. Focus on grant types still relevant in 2025, common implementation mistakes, security tradeoffs, and what to recommend for internal APIs vs third-party integrations.
如果是 research for Academic Research,建议补上研究问题、学科领域、严谨程度和输出形式:
/research Investigate retrieval-augmented generation evaluation methods for academic literature review. Compare offline metrics, human evaluation, and benchmark design. I need a structured brief with terminology, core debates, and a shortlist of methods worth deeper reading.
research skill 的实际使用流程
一个比较稳妥的 research usage 方式是:
- 用带明确范围的主题和预期结果调用
/research。 - 让 planning agent 识别上下文并生成计划文件。
- 在执行前先审阅计划。这一步最容易发现受众不对、问题缺失或范围过大的情况。
- 只有当计划与你的意图一致时,再确认执行。
- 把最终笔记当作第一版地图,然后针对仍不清晰的部分再启动一轮更聚焦的后续研究。
这个“先审阅再执行”的关卡,是它和普通 prompting 最大的实际区别。如果计划本身很弱,后续执行通常也不会强。
怎样写 prompt 才能更好触发 research skill
尽量使用一种让规划阶段更容易展开的 prompt 结构:
- Topic: 研究什么
- Goal: 需要形成什么判断或理解
- Scope: 包含什么、不包含什么
- Audience: 初学者、从业者、研究者、管理层
- Output: 对比、briefing、笔记、建议
示例:
/research Topic: consistent hashing. Goal: explain it well enough to choose whether to use it in a distributed cache design. Scope: core mechanism, failure cases, virtual nodes, operational tradeoffs; exclude heavy math proofs. Audience: senior engineers. Output: decision-oriented research notes.
research skill 常见问题
做研究时,它比普通 prompt 更好吗?
大多数情况下是,尤其当主题范围大、定义含糊,或者牵涉决策时。普通 prompt 往往会在一次输出里混合规划、假设和答案生成。research skill 会先强制产出一个明确计划,因此更有利于控制范围,也让最终结果更容易被信任。
什么情况下不该用 research skill?
如果你只是查一个快速事实、简单定义,或者你已经非常清楚具体子问题是什么,那就没必要用它。如果你不需要中途审阅这一步,那么两阶段流程反而会变成额外负担。另外,如果你的 agent 系统不能稳定协调 subagent,它也不算理想选择。
它适合初学者吗?
适合,但前提是初学者至少能描述自己的目标,而不只是丢出一个主题。“Teach me Kubernetes” 这种说法太宽泛;“Help me understand Kubernetes enough to deploy one internal service and avoid common architecture mistakes” 就好得多。这个 skill 能提供帮助,但不能替代良好的范围界定。
它适合 Academic Research 工作流吗?
它可以支持 research for Academic Research 中的问题定义和综合梳理阶段,尤其适合整理术语、争议点和子主题地图。但不要把它当成正式文献综述方法、来源核验、引用管理,或特定学科证据标准的替代品,除非你的更大系统本身已经补齐这些环节。
如何改进 research skill 的使用效果
在批准执行前先改进计划
最值得投入精力改进的,不是最终笔记,而是计划本身。检查这个计划是否:
- 回答了你真正关心的决策问题
- 把背景信息和可执行问题区分开来
- 避免过于宽泛
- 体现了你的受众和约束条件
如果计划看起来太泛,先要求它缩窄角度,再进入执行阶段。
用更强的输入换来更好的 research 输出
当你补充决策上下文时,research skill 的效果会明显更好。特别有用的信息包括:
- 你已经知道什么
- 你卡在哪些地方
- 你下一步需要什么结果
- 你认为什么算“足够好”
例如,“compare approaches” 就弱于 “compare approaches for maintainability, migration risk, and operational complexity in a small team.”
留意常见失败模式
常见问题包括:主题过宽、受众不清,以及“把所有东西都调研一遍”式的请求。另一个高频失败点,是默认这个 skill 会自动正确推断你的项目上下文。如果主题与某个正在进行的代码库、架构或课程研究有关,请明确写出来。这个 skill 的结构能提供帮助,但无法弥补意图缺失。
第一轮之后继续迭代
把第一轮结果当成画地图,而不是终点。然后针对最关键的部分,再发起第二轮 research guide:例如某个有争议的 tradeoff、一个难懂概念,或某个决策分支。相比一次抛出一个巨大请求,按顺序做多轮、范围更窄的研究,通常会得到更好的输出。这也是把这个 research skill 从一次性 prompt 变成稳定工作流的最佳方式。
