autoskill 会分析本地 Screenpipe 活动,识别重复出现的研究工作流,将其匹配到现有的 scientific-agent-skills,并起草新的 skills 或组合配方。它面向 Skill Authoring,要求在 3030 端口运行中的 screenpipe daemon,并且只会把已脱敏的摘要发送给模型。当你需要基于真实使用情况、而不是泛泛头脑风暴,来获得有证据支持的 skill 点子时,就适合用 autoskill。

Stars0
收藏0
评论0
收录时间2026年5月14日
分类Skill 编写
安装命令
npx skills add K-Dense-AI/claude-scientific-skills --skill autoskill
编辑评分

这个 skill 得分 78/100,说明它是一个相当扎实的目录候选:触发场景明确、工作流真实,而且有足够的运行细节,用户在安装前就能判断是否适合自己。对目录用户来说,如果他们希望有一个 agent 通过 screenpipe 检查本地屏幕活动,并基于重复的工作模式提出新的 scientific-agent skills 或组合配方,它会很有用。

78/100
亮点
  • 触发条件和适用范围明确:当用户希望基于观察到的工作流,分析最近工作并生成 skill 建议时,就应使用它。
  • 依赖关系清晰:它要求本地 3030 端口上的 screenpipe daemon 正在运行,并明确说明如果不可用就会拒绝执行。
  • agent 可用性强:它描述了本地检测流程,并将已脱敏的聚类摘要传给 LLM,使 agent 有具体流程可依,而不是一个空泛提示词。
注意点
  • 采用门槛依赖本地基础设施:用户必须已经运行 screenpipe,并提供支持的 LLM 后端或 API key。
  • 仓库证据显示没有支持文件或安装命令,因此即使有较详细的 SKILL.md,实际配置和使用仍可能需要一定的手动理解。
概览

autoskill 技能概览

autoskill 的作用

autoskill 会通过 Screenpipe 分析你最近的屏幕活动,识别重复出现的研究工作流,并把这些模式转化为新的 skill 或 composition recipe。autoskill 这个 skill 面向的是 Skill Authoring,而不是通用记笔记:它的目标是帮助你从自己的行为里发现可复用的工作流,并把它们整理成可安装的 skills。

适合谁使用

如果你已经本地部署了 Screenpipe,并且想弄清楚自己到底经常在做什么、哪些行为已经多到值得做成一个 skill,那么就适合用 autoskill。它最适合 power users、研究人员,以及那些希望基于真实证据来构思 skill、而不是凭记忆头脑风暴的 skill 维护者。

它的不同之处

和通用 prompt 不同,autoskill 依赖 screenpipe 提供的本地实时 telemetry;如果这个 daemon 不可用,它就会拒绝运行。这也让 autoskill 的安装决策很清楚:如果你想基于真实使用情况做 workflow 挖掘,它很合适;如果你要的是一个独立的写作助手,那它并不合适。它的核心价值是模式识别加 skill 匹配,而且只会把脱敏后的摘要交给模型处理。

如何使用 autoskill 技能

安装与运行前提

使用以下命令安装 autoskill:
npx skills add K-Dense-AI/claude-scientific-skills --skill autoskill

在开始使用 autoskill 之前,先确认本地 screenpipe 正在 3030 端口运行,并且你选择的 LLM backend 已经配置好。这个 skill 需要能够通过认证访问 http://localhost:3030,同时还要能连到一个 LLM endpoint,例如 http://localhost:1234/v1https://api.anthropic.com,或者 BYOK Foundry gateway。

先给出正确的输入

最好的 autoskill 引导提示,会明确说明你想分析的时间范围、工作流或结果。好的输入示例是:“分析我过去 7 天的屏幕活动,找出可以发展成新的 scientific-agent-skills 的重复研究工作流。” 只说“帮我推荐一些 skills”之类的弱输入,留给模型的空间太大,最后往往只会得到浅层匹配。

最佳分析工作流

先阅读 SKILL.md,再检查 README.mdAGENTS.mdmetadata.json,以及存在的话 rules/resources/references/scripts/ 目录。这个仓库里,SKILL.md 是主要事实来源,所以实际的 autoskill 使用路径应该是:先确认前提条件,再发起一个简短的分析请求,然后在采纳之前先检查生成的 skill 或 composition recipe 是否真的适合你。

怎样提供更好的输出

把 autoskill 无法自行推断的决策背景补充清楚:你的目标领域、使用的工具、要检查的时间窗口,以及你想要的是一个新 skill 还是一条由现有 skills 组成的链。如果你只想分析某个单一项目的模式,就明确说出来;如果你想做更广泛的行为挖掘,也要直接说明。你的边界越精确,skill 匹配就越好,得到泛泛建议的概率也就越低。

autoskill 技能 FAQ

使用 autoskill 需要 Screenpipe 吗?

需要。autoskill 没有其他数据来源,完全依赖本地的 screenpipe daemon。如果 Screenpipe 不可访问,这个 skill 应该停止执行,而不是自行猜测。

autoskill 适合新手吗?

如果你能安装工具、并能描述一个工作流目标,那新手也可以使用。不过它的最大价值,还是在于你已经大致知道自己想提炼哪类可复用行为。若你还在摸索 prompt 基础,简单一些的 prompt 可能比安装 autoskill 更省事。

这和普通 prompt 有什么不同?

普通 prompt 是让 LLM 只根据文本来编造想法。autoskill 则是一个工作流发现工具:它会查看真实的屏幕活动,对重复动作进行聚类,并先把它们映射到已有的 skill 模式,再去起草新的内容。

什么情况下不该用 autoskill?

如果你想要完全离线、且不依赖 Screenpipe 的行为,就不要用 autoskill;如果你对把模型连接到本地活动摘要感到不舒服,也不适合用;如果你需要的是一次性答案,而不是反复分析工作流,那它也不是合适的选择。

如何改进 autoskill 技能

给它更窄、可衡量的目标

提升 autoskill 结果最快的方法,就是收紧搜索范围。一次只问一个类别,比如文献综述、source triage、citation cleanup 或 drafting。范围太宽的请求通常只会产出很模糊的模式,而这些模式很难进一步转成真正有用的 skill。

把第一次输出当作筛选结果

把第一次 autoskill 运行的结果当作候选项生成,而不是最终结论。检查它提议的 skill 是否真的反复出现、是否能节省时间、以及是否适合你的环境。如果不合适,就用更短的时间窗口、换一个项目,或者更严格地定义“重复”,再重新运行。

注意常见失败模式

最常见的失败模式是过度泛化:少数几个彼此无关的动作被硬拼成一个假的“工作流”。另一个问题是对目标输出定义太弱,导致生成出来的 skill 很难安装或复用。遇到这种情况,就补充一些成功示例,以及明确哪些内容应该排除。

改进提示词,而不只是改数据

对于用于 Skill Authoring 的 autoskill,最有价值的追问,是直接告诉它你希望最终的 skill 以什么形式打包:是独立 skill、composition recipe,还是一个串联现有 scientific-agent-skills 的 skill。这个简单指令对输出形态的影响,往往远大于只说“给我更好的建议”。

评分与评论

暂无评分
分享你的评价
登录后即可为这个技能评分并发表评论。
G
0/10000
最新评论
保存中...