作者 affaan-m
verification-loop 是一套給 Claude Code 使用的驗證工作流程,用來在程式碼變更後檢查 build、型別、lint、測試、安全性與 diff。這個 verification-loop 技能特別適合在送出 PR 前、或重構之後使用,當你需要的是一份有結構的變更後檢查指南,而不是一個泛用提示詞時。
作者 affaan-m
verification-loop 是一套給 Claude Code 使用的驗證工作流程,用來在程式碼變更後檢查 build、型別、lint、測試、安全性與 diff。這個 verification-loop 技能特別適合在送出 PR 前、或重構之後使用,當你需要的是一份有結構的變更後檢查指南,而不是一個泛用提示詞時。
作者 affaan-m
rust-testing 是一份實用的 Rust 測試模式指南,涵蓋單元測試、整合測試、非同步測試、屬性式測試、模擬物件與覆蓋率。它能幫你選對測試形式,並以較少猜測的方式走完 TDD 工作流程。
作者 affaan-m
python-testing 可協助你用 pytest 優先的工作流程來設計、撰寫與審查 Python 測試。適合用於 TDD、fixtures、mocking、參數化、覆蓋率檢查,以及維護 Skill Testing 與實際專案中可靠的測試套件。
作者 affaan-m
perl-testing 是一份實用指南,教你如何使用 Test2::V0、Test::More、prove、mocking、coverage 與 TDD 撰寫、執行並改進 Perl 測試。若你需要安裝指引、使用模式、遷移協助,以及更快排查失敗測試套件的問題,這個 perl-testing 技能會很有幫助。
作者 affaan-m
kotlin-testing 是一份實用的 Kotlin 測試自動化指南,涵蓋 Kotest、MockK、協程測試、屬性式測試與 Kover 覆蓋率。使用這個 kotlin-testing skill,可以跟著偏向 TDD 的工作流程撰寫更清楚的單元測試與元件測試,並在 mock 相依項或測試 suspend 程式碼時,減少猜測與反覆試錯。
作者 affaan-m
golang-testing 技能可協助你撰寫與改進 Go 測試,涵蓋 table-driven cases、subtests、benchmarks、fuzzing,以及兼顧 coverage 的 TDD。它是為正在處理實際 Go 程式碼、想要實用且符合慣例的指引,而不是泛泛的測試建議的開發者所設計。
作者 affaan-m
eval-harness 技能是一套正式的評估框架,適用於 Claude Code 工作階段與 eval-driven development。它能幫助你定義通過/失敗標準、建立能力與回歸評測,並在正式推出提示詞或工作流程變更前,衡量 agent 的可靠性。
作者 affaan-m
csharp-testing 是一份實用的 C# 與 .NET 測試自動化指南,涵蓋 xUnit、FluentAssertions、mock、整合測試,以及可讀性高的測試結構,幫助建立更易維護的測試覆蓋。
作者 affaan-m
cpp-testing 技能可協助你使用 GoogleTest、GoogleMock、CMake 與 CTest 來撰寫、執行與除錯 C++ 測試。適合用於覆蓋率分析、修正不穩定測試、以 sanitizer 為基礎的診斷,以及在現代 C++ 專案中實作實用的 cpp-testing 工作流程。
作者 affaan-m
context-budget 技能可稽核 Claude Code 在 agents、skills、rules 與 MCP servers 上的 context 使用情況。它能協助找出內容膨脹、重複資訊與高成本元件,並回傳依優先順序排列的清理建議。這份 context-budget 指南適合想實際運用 context-budget,或在較大型環境中進行 Skill Testing 的使用者參考。
作者 obra
writing-skills 是一份用於 Skill Authoring 的實作指南,協助你以測試驅動流程建立、編修與驗證 agent skills。內容涵蓋關鍵檔案、先備條件,以及在壓力情境、基準測試與精簡 SKILL.md 迭代中的實務做法。
作者 anthropics
skill-creator 是一個用於撰寫技能的 meta-skill,可協助起草新技能、修改既有 `SKILL.md`、執行 eval、比較不同版本,並透過 repository 腳本與審查工具優化觸發描述。
作者 wshobson
使用 llm-evaluation skill,為 LLM 應用、提示詞、RAG 系統與模型變更設計可重複執行的評估方案,涵蓋指標、人工作業審查、基準測試與回歸檢查。
作者 github
agentic-eval 是一個 GitHub Copilot skill,示範如何運用反思、依 rubric 進行評論,以及 evaluator-optimizer 模式,為 AI 輸出建立評估迴圈。
作者 addyosmani
test-driven-development 技能可協助你先寫出會失敗的測試,再用最小幅度的修正讓測試通過。適合用於邏輯變更、錯誤修復、回歸問題與邊界情境,特別是在你需要可驗證證據,而不只是看似合理的修補方案時。
作者 phuryn
test-scenarios 技能可把使用者故事轉成可直接執行的測試情境,包含目標、起始條件、使用者角色、步驟、預期結果與邊界情況。當你需要結構化的 test-scenarios 指引來撰寫 QA 測試案例、驗收測試、功能驗證,或讓測試設計更清楚時,這個技能很適合使用。
作者 trailofbits
testing-handbook-generator 是一個中繼技能,用來根據 Trail of Bits Testing Handbook(appsec.guide)建立 Claude Code skills。它協助 skill 作者、資安工程師與維護者,將手冊章節轉成可重複使用的 skills,並具備清楚的工作流程、範圍控管與可重複的生成方式。當你需要一份用於 handbook-to-skill 撰寫的 testing-handbook-generator 指南時,就適合使用這個 skill。
作者 trailofbits
這份 property-based-testing 技能指南涵蓋如何在多種語言與 smart contracts 中撰寫、審查與改進 PBT。可用來辨識 roundtrip、idempotence、invariant、parser、validator 與 normalization 等情境,選擇合適的 generators,並判斷何時 property-based-testing 比 example-based tests 更有優勢。
作者 softaworks
skill-judge 是一個用來稽核 AI skill 套件與 SKILL.md 檔案的審查與評分 skill。它可協助作者與維護者判斷知識增量、觸發清晰度、工作流程品質,以及是否已具備發佈準備度,並提供可採取行動的改進建議。
作者 NeoLabHQ
Judge 是一個兩階段評估技能,會先啟動 meta-judge,再由 judge 子代理在隔離上下文中,依據證據與明確標準替工作內容打分。當你需要一份可辯護的 judge 指南,而不是隨性意見時,可用於程式碼、寫作、分析或 Skill Authoring 的報告式審查。
作者 NeoLabHQ
implement-task 是一個工作流程自動化技能,可將任務規格轉為實作變更,並在關鍵步驟上透過自動化的 LLM-as-Judge 驗證。它能協助代理讀取任務檔、依序執行工作、驗證品質,並在只完成部分進度時更順利地接續下去,減少猜測。
作者 alinaqi
playwright-testing skill 可用於撰寫與除錯 Playwright 端對端測試,涵蓋 page objects、跨瀏覽器執行、適合 CI 的設定、驗證處理,以及穩定的測試結構。
作者 alchaincyf
darwin-skill 可用一套可重複執行的流程來改善 SKILL.md:先評估、再修訂、接著測試,最後決定保留或還原變更。它是為 Skill Authoring 打造,結合評分規準與以提示為基礎的驗證流程,並支援輸出來自 repo 範本與素材的視覺化結果。
作者 ComposioHQ
skill-creator 是一份 Skill Authoring 指南,協助你建立或更新可重複使用的 Skills,並清楚定義適用範圍、工作流程、參考資料與 scripts。當你需要讓跨會話的行為保持一致、需要實用的封裝支援,且希望少一些一次性提示詞帶來的猜測時,就適合使用 skill-creator skill。