anti-distill
作者 leilei926524-techanti-distill 是一款文档改写 skill,用于对 skill 文件、工作指南和 persona 文档进行分类并重写,生成去除核心 know-how 的清理版本。它支持在 Claude Code 或 OpenClaw 中手动安装,安装后可通过 /anti-distill 处理文件、文件夹或粘贴内容。
这项 skill 的评分为 68/100,表示它作为真实、可复用的工作流可以收录到目录中,但在适用场景和伦理层面存在明显注意事项。仓库提供了可触发、分步骤的流程、具体的 prompt 资产、示例和安装文档,因此相比通用 prompt,agent 更有机会在较少猜测的情况下直接运行。不过,只有当用户明确需要对文档进行“稀释”处理,而不是进行忠实的 skill 编写时,才适合安装它。
- 触发方式明确:SKILL.md 提供了清晰的调用语句、参数提示、支持的输入模式以及可用工具说明。
- 操作内容扎实:classifier 和 diluter prompt 文件为工作类、persona 类和通用文档定义了具体的转换规则。
- 有助于安装判断:README、INSTALL.md 以及前后对比示例展示了输出效果、处理强度等级和支持的格式。
- 工作流仍有一部分依赖人工判断:该 skill 要求用户自行选择清理强度,且摘录内容中没有展示完整的端到端输出约定。
- 使用场景较窄且可能存在争议:该 repo 主要针对移除员工 skills 中的核心 know-how 进行优化,并不是通用型的知识清理工具。
anti-distill skill 概览
anti-distill 是做什么的
anti-distill skill 是一种文档重写类 skill,用来把详尽的员工技能文件、工作指南或 persona 文档,改写成“看起来完整,但核心知识已被抽离”的版本。它的实际作用不是做泛化摘要,而是先判断哪些内容可以保留、哪些应该稀释、哪些需要删除、哪些需要遮蔽,再按这个判断结果进行改写。
谁适合使用 anti-distill
anti-distill 最适合已经写好内部 skill 文档、现在需要整理出一版更适合对外展示或更适合审阅的用户。它尤其适用于处理 SKILL.md、work.md、persona.md、SOP、交接文档,以及混合 Markdown/TXT/PDF 输入的 Rewriting 场景。如果你的需求是尽可能完整、忠实地保留专家级细节,那它就不是合适的工具。
anti-distill skill 的差异点在哪里
anti-distill 最大的区别,在于它采用了明确的“分类 + 重写”流程,而不是依赖一句模糊的“把这个写得没那么具体”提示词。仓库里把分类和不同文档类型的改写 prompt 分开了:prompts/classifier.md、prompts/diluter_work.md、prompts/diluter_persona.md、prompts/diluter_general.md。这种设计能减少重写时的猜测成本,尤其是在处理工作知识和 persona 特征时,边界更清楚。
安装前需要了解的核心取舍
anti-distill 的目标就是有意降低文档的可用性。理想输出应该在结构上仍然可信、技术表述不出错,但同时变得更难执行、更不具体、也更难迁移复用——这正是它的目的。风险在于两端失衡:要么清理过头,变成一眼看穿的空话;要么清理不够,仍然留下操作诀窍、阈值、升级路径或决策逻辑。
如何使用 anti-distill skill
在 Claude Code 或 OpenClaw 中安装 anti-distill
这个仓库提供的是手动安装方式,不是 package installer。在 Claude Code 中,把它 clone 到项目级或全局 skills 目录即可:
mkdir -p .claude/skills
git clone https://github.com/leilei926524-tech/anti-distill.git .claude/skills/anti-distill
或者安装到全局目录:
git clone https://github.com/leilei926524-tech/anti-distill.git ~/.claude/skills/anti-distill
如果你使用 OpenClaw:
git clone https://github.com/leilei926524-tech/anti-distill.git ~/.openclaw/workspace/skills/anti-distill
之后通过 /anti-distill 调用即可。不需要额外安装 Python 依赖。
anti-distill 需要什么输入
anti-distill skill 支持以下输入方式:
- 直接给文件路径
- 传入类似
colleagues/{slug}/这样的 colleague-skill 文件夹 - 直接粘贴文档内容
- 让它在本地搜索 skill 文件
它能识别两类常见输入:一类是 colleague-skill 模式,比如 work.md + persona.md 或 ## Layer 0;另一类是通用文档,如 Markdown、TXT、PDF。最适合交给 anti-distill 处理的,是那些包含明确规则、阈值、案例、决策分支、具体人员、事故记忆,或者“我们实际就是这么做”的文档,因为这类内容最能体现 anti-distill 的价值。
怎样写 anti-distill 的提示词效果更好
一个较弱的请求是:“clean this skill.”
更有效的 anti-distill 用法,提示里最好明确说明:
- 要读哪个文件
- 这是什么类型的文档
- 希望清理到什么强度
- 你想要哪些输出文件
示例:
/anti-distill Read colleagues/zhangsan/. This is a colleague-skill with work and persona content. Use medium cleaning. Keep structure and formatting, but remove concrete thresholds, troubleshooting memory, escalation shortcuts, and highly distinctive behavior cues. Generate a cleaned version plus a private backup of removed knowledge.
之所以这样更有效,是因为这个仓库的逻辑核心就在于清理强度控制,以及识别高价值知识类别,比如常见坑点、判断启发、人与人网络中的隐性知识、以及未明写的工作流程。
最佳使用流程,以及优先阅读哪些文件
如果你打算在真正信任 anti-distill 之前先把它看明白,建议按这个顺序读仓库:
README.md:看产品意图和输出模型INSTALL.md:看安装路径SKILL.md:看触发方式、工具规则和主流程prompts/classifier.md:看标签系统[SAFE]、[DILUTE]、[REMOVE]、[MASK]- 按文档类型去看对应的 diluter prompt
examples/zhangsan_before_after.md:用来校准输出质量
实际使用时,建议先从 medium 强度开始,先看有哪些内容被保留下来了,再只对偏弱的部分重新跑一遍。直接上 heavy 清理虽然更快,但更容易产出明显的企业套话感内容。
anti-distill skill 常见问题
anti-distill 比普通重写提示词更好吗?
通常是的,前提是你的目标是“可控地降质”,而不是简单换种说法。通用 prompt 往往要么保留了太多具体细节,要么把结构删得太狠。anti-distill 更稳妥,因为它把分类和重写拆开处理,并且针对不同文档类型提供了不同的重写规则。
anti-distill 适合新手吗?
适合,前提是你愿意认真复核改写后的文档。anti-distill 的使用路径并不复杂:安装、调用、选择强度、检查输出。真正更难的是判断——你需要看得出来,哪些保留下来的句子仍然泄露了过多信息。新手在拿重要文件使用前,最好先对照仓库里附带的 before/after 示例做一次比对。
什么情况下不该用 anti-distill?
不要把 anti-distill 用在公开文档、onboarding 材料,或者任何以操作可用性为核心的知识库上。对于内容很短、而且本身就没什么具体信息的文档,它也不合适;如果原文已经足够泛,anti-distill 几乎没有可发挥的空间,只会让内容进一步变弱。
anti-distill 适合多语言和混合仓库吗?
适合。这个 skill 明确支持英文和中文,并会按用户语言回复。它也能处理混合文件格式,并可借助宿主工具原生的读取能力读取图片或 PDF;不过最终效果依然取决于原始文档是否足够清晰地暴露了具体 know-how。
如何改进 anti-distill skill 的使用效果
给 anti-distill 提供更好的源材料
anti-distill 在信息丰富、细节明确的源文本上表现最好。如果输入里包含精确阈值、事故复盘经验、真实决策标准、示例对话,或明确的协作路径,skill 就能更准确地判断哪些该保留、哪些该稀释、哪些该删除。如果源文档本来就很空泛,输出自然也不会提升太多,因为可供转换的有效信号本来就少。
重点盯住 anti-distill 的主要失败模式
anti-distill 最常见的失败模式包括:
- 不小心保留了仍可直接执行的细节
- 替换过度,变成明显的空洞废话
- 过度抹平文风,导致文档读起来反而可疑
- 漏掉藏在示例或对话里的隐性知识
要特别留意数字、if X then Y 这类分支、明确指向的负责人,以及 postmortem 风格的解释。这些内容承载的价值,往往比章节标题表面看上去更高。
用明确的改写约束来优化 anti-distill 提示词
想把 anti-distill 用得更好,就要明确告诉它哪些要保留、哪些是重点处理对象。常见且有效的约束包括:
- 保留标题、列表和章节顺序
- 保持术语在技术上正确
- 删除具体限制、内部名称和根因记忆
- 泛化示例,但不要改变主题覆盖范围
- 让输出长度与原文大致相近
这些约束与仓库自身的质量标准是对齐的,比如保留结构、长度大致接近等。
首轮之后继续迭代,不要一遍定稿
不要把第一次跑出的 anti-distill 结果直接当最终版。先审一遍清理后的文档,把那些依然能传递真实判断力的句子标出来,然后只针对这些部分重新处理。比如:“Re-clean only CR 重点 and 经验知识库; these still reveal specific execution standards.” 这种按章节逐段迭代的方式,通常比一上来就把整份文档从 medium 直接切到 heavy 更稳,也更容易得到合适结果。
