作者 affaan-m
verification-loop 是一个用于 Claude Code 的验证工作流,用来在代码变更后检查构建、类型、lint、测试、安全性和 diff。这个 verification-loop 技能很适合在发 PR 之前或重构之后使用,当你需要的是一套结构化的变更后检查指南,而不是一个泛泛的提示词时。
作者 affaan-m
verification-loop 是一个用于 Claude Code 的验证工作流,用来在代码变更后检查构建、类型、lint、测试、安全性和 diff。这个 verification-loop 技能很适合在发 PR 之前或重构之后使用,当你需要的是一套结构化的变更后检查指南,而不是一个泛泛的提示词时。
作者 affaan-m
rust-testing 是一份实用指南,覆盖 Rust 测试模式,包括单元测试、集成测试、异步测试、基于属性的测试、mock 和覆盖率。它能帮助你更准确地选择合适的测试形式,并以更少的试错推进 TDD 工作流。
作者 affaan-m
python-testing 帮助你以 pytest 优先的工作流来设计、编写和审查 Python 测试。可用于 TDD、fixtures、mocking、参数化、覆盖率检查,以及维护适用于 Skill Testing 和真实项目的可靠测试套件。
作者 affaan-m
perl-testing 是一份实用指南,介绍如何使用 Test2::V0、Test::More、prove、mocking、coverage 和 TDD 编写、运行并改进 Perl 测试。该 perl-testing 技能适合用于安装指导、使用模式、迁移帮助,以及更快排查测试套件失败问题。
作者 affaan-m
kotlin-testing 是一份面向 Kotlin 测试自动化的实用指南,涵盖 Kotest、MockK、协程测试、基于属性的测试和 Kover 覆盖率。使用这个 kotlin-testing 技能,可以遵循更贴近 TDD 的工作流,编写更清晰的单元测试和组件测试,并在 mock 依赖或测试挂起代码时减少猜测。
作者 affaan-m
golang-testing skill 可帮助你编写并改进 Go 测试,涵盖表驱动用例、子测试、benchmark、fuzzing 以及覆盖率感知的 TDD。它面向正在处理真实 Go 代码、希望获得实用且符合 Go 习惯写法的指导,而不是泛泛而谈的测试建议的开发者。
作者 affaan-m
eval-harness 技能是面向 Claude Code 会话和 eval 驱动开发的正式评估框架。它可以帮助你定义通过/失败标准,构建能力评估和回归评估,并在发布 prompt 或工作流变更前衡量 agent 的可靠性。
作者 affaan-m
csharp-testing 是一份面向 C# 和 .NET 测试自动化的实用指南,涵盖 xUnit、FluentAssertions、mock、集成测试,以及适合长期维护的清晰测试结构,帮助你构建可维护的测试覆盖。
作者 affaan-m
cpp-testing 技能可帮助你使用 GoogleTest、GoogleMock、CMake 和 CTest 编写、运行并调试 C++ 测试。它适用于覆盖率分析、修复 flaky test、借助 sanitizer 进行诊断,以及在现代 C++ 项目中更高效地使用 cpp-testing。
作者 affaan-m
context-budget 技能会审计 Claude Code 在 agents、skills、rules 和 MCP servers 中的上下文使用情况。它能帮助识别臃肿内容、重复内容和高成本组件,并返回按优先级排序的清理建议。这个 context-budget 指南适合需要实际使用 context-budget 的场景,以及更大规模环境中的 Skill Testing。
作者 obra
writing-skills 是一份面向 Skill Authoring 的实用指南,用于以测试驱动的工作流创建、编辑和验证 agent skills。你可以快速了解关键文件、前置条件,以及如何处理压力场景、基线测试,并高效迭代简洁的 `SKILL.md`。
作者 anthropics
skill-creator 是一个用于 Skill 编写的元技能,可用于起草新技能、修改现有 `SKILL.md`、运行评测、对比不同方案,并借助仓库脚本和审查工具优化触发描述。
作者 wshobson
使用 llm-evaluation skill,为 LLM 应用、提示词、RAG 系统和模型变更设计可重复执行的评估方案,覆盖指标、人审、基准测试与回归检查。
作者 github
agentic-eval 是一个 GitHub Copilot skill,展示如何通过反思、基于 rubric 的评审,以及 evaluator-optimizer 模式,为 AI 输出构建评估循环。
作者 addyosmani
test-driven-development 技能帮助你通过先写一个会失败的测试,再做最小修改让它通过来改代码。适用于逻辑变更、修复 bug、回归问题和边界场景——当你更看重可验证的证据,而不是看起来合理的补丁时尤其合适。
作者 phuryn
test-scenarios 技能可将用户故事转化为可直接执行的测试场景,包含目标、起始条件、用户角色、步骤、预期结果和边界情况。它适用于 QA 测试用例、验收测试、功能验证,以及在需要结构化 test-scenarios 指南时帮助你设计更清晰的测试方案。
作者 trailofbits
testing-handbook-generator 是一个元技能,用于基于 Trail of Bits Testing Handbook(appsec.guide)创建 Claude Code skills。它帮助技能作者、安全工程师和维护者把手册章节转化为可复用的技能,并具备清晰的工作流、范围控制和可重复的生成流程。当你需要一份用于从 handbook 到 skill 编写的 testing-handbook-generator 指南时,就使用这个技能。
作者 trailofbits
用于在多种语言和智能合约中编写、审查和改进 PBT 的 property-based-testing 技能指南。使用这份 property-based-testing 指南来识别 roundtrip、idempotence、invariant、parser、validator 和 normalization 场景,选择 generators,并判断何时 property-based-testing 比 example-based tests 更有优势。
作者 softaworks
skill-judge 是一项用于审查和评分的技能,适合审计 AI 技能包和 SKILL.md 文件。它可帮助作者与维护者评估知识增量、激活清晰度、工作流质量以及发布准备度,并提供可落地的改进建议。
作者 NeoLabHQ
Judge 是一个两阶段评估技能:先启动 meta-judge,再启动 judge 子代理,在隔离上下文、证据和明确标准下对作品打分。适合用于代码、写作、分析或 Skill Authoring 的仅报告式审查;当你需要一份站得住脚的 judge 指南,而不是随口给出的意见时,它尤其合适。
作者 NeoLabHQ
implement-task 是一款工作流自动化技能,可将任务规格转化为已实现的变更,并在关键步骤上通过自动化的 LLM-as-Judge 验证来把关。它帮助 agent 读取任务文件、按顺序执行工作、验证质量,并在已有部分进度的基础上继续推进,减少猜测。
作者 alinaqi
用于编写和调试 Playwright 端到端测试的 playwright-testing 技能,覆盖 page objects、跨浏览器运行、适合 CI 的配置、认证处理和稳定的测试结构。
作者 alchaincyf
darwin-skill 通过一个可重复的闭环来改进 SKILL.md 文件:先评估,再修订、测试,最后保留或回滚更改。它面向 Skill Authoring,将 rubric 评分与基于 prompt 的验证结合起来,并支持从 repo 模板和 assets 生成可视化结果输出。
作者 ComposioHQ
skill-creator 是一份 Skill Authoring 指南,帮助你创建或更新可复用的 Skills,并明确它们的适用范围、工作流、参考资料和脚本。当你需要让同一技能在多次会话中保持一致的行为、获得更实用的打包支持,并减少一次性提示带来的试错时,就适合使用 skill-creator 技能。