Skill Testing

Entdecke Skill Testing Agent Skills in Skill-Aufbau und vergleiche verwandte Workflows, Tools und Einsatzfaelle.

27 Skills
A
verification-loop

von affaan-m

verification-loop ist ein Claude Code-Verifizierungsworkflow zum Prüfen von Builds, Typen, Linting, Tests, Sicherheit und Diffs nach Codeänderungen. Diese verification-loop-Skill ist vor PRs und nach Refactorings hilfreich, wenn Sie statt einer generischen Eingabeaufforderung eine strukturierte Anleitung für die Prüfung nach Änderungen möchten.

Verification
Favoriten 0GitHub 156.3k
A
rust-testing

von affaan-m

rust-testing ist ein praxisnaher Leitfaden für Rust-Testmuster, darunter Unit-Tests, Integrationstests, asynchrone Tests, property-based Testing, Mocks und Coverage. Er hilft dabei, die passende Testform zu wählen und einem TDD-Workflow mit weniger Rätselraten zu folgen.

Skill Testing
Favoriten 0GitHub 156.2k
A
python-testing

von affaan-m

python-testing hilft dir, Python-Tests mit einem pytest-first-Workflow zu entwerfen, zu schreiben und zu prüfen. Nutze es für TDD, Fixtures, Mocking, Parametrisierung, Coverage-Prüfungen und zur Pflege einer zuverlässigen Test-Suite für Skill Testing und echte Projekte.

Skill Testing
Favoriten 0GitHub 156.2k
A
perl-testing

von affaan-m

perl-testing ist ein praxisnaher Leitfaden zum Schreiben, Ausführen und Verbessern von Perl-Tests mit Test2::V0, Test::More, prove, Mocking, Coverage und TDD. Nutzen Sie den perl-testing Skill für Installationshinweise, typische Nutzungsmuster, Migrationshilfe und schnelleres Debugging fehlschlagender Test-Suites.

Skill Testing
Favoriten 0GitHub 156.2k
A
kotlin-testing

von affaan-m

kotlin-testing ist ein praxisnaher Leitfaden für Kotlin-Testautomatisierung mit Kotest, MockK, Coroutine-Tests, property-basierten Tests und Kover-Coverage. Nutze diesen kotlin-testing Skill, um einem TDD-freundlichen Workflow zu folgen, klarere Unit- und Komponententests zu schreiben und beim Mocking von Abhängigkeiten oder beim Testen von suspendierenden Code weniger zu raten.

Test Automation
Favoriten 0GitHub 156.2k
A
golang-testing

von affaan-m

Die golang-testing-Skill hilft dir, Go-Tests mit table-driven Cases, Subtests, Benchmarks, Fuzzing und coverage-bewusstem TDD zu schreiben und zu verbessern. Sie richtet sich an Entwickler, die an realem Go-Code arbeiten und praxisnahe, idiomatische Anleitung statt allgemeiner Testtipps suchen.

Test Automation
Favoriten 0GitHub 156.2k
A
eval-harness

von affaan-m

Das eval-harness Skill ist ein formaler Evaluierungsrahmen für Claude Code-Sitzungen und eval-getriebene Entwicklung. Es hilft dir dabei, Pass/Fail-Kriterien zu definieren, Capability- und Regression-Evals aufzubauen und die Zuverlässigkeit von Agents vor dem Ausrollen von Prompt- oder Workflow-Änderungen zu messen.

Model Evaluation
Favoriten 0GitHub 156.1k
A
csharp-testing

von affaan-m

csharp-testing ist ein praxisnaher Leitfaden für Testautomatisierung in C# und .NET. Er behandelt xUnit, FluentAssertions, Mocking, Integrationstests und eine gut lesbare Teststruktur für wartbare Abdeckung.

Test Automation
Favoriten 0GitHub 156.1k
A
cpp-testing

von affaan-m

Das cpp-testing Skill hilft dir dabei, C++-Tests mit GoogleTest, GoogleMock, CMake und CTest zu schreiben, auszuführen und zu debuggen. Nutze es für Coverage, das Beheben instabiler Tests, Diagnosen mit Sanitizern und die praxisnahe Anwendung von cpp-testing in modernen C++-Projekten.

Test Automation
Favoriten 0GitHub 156.1k
A
context-budget

von affaan-m

Der context-budget Skill prüft die Claude-Code-Kontextnutzung über Agents, Skills, Regeln und MCP-Server hinweg. Er hilft dabei, Aufblähungen, doppelte Inhalte und besonders teure Komponenten zu erkennen und liefert anschließend priorisierte Maßnahmen zur Bereinigung. Nutze diesen context-budget Leitfaden für die praktische Verwendung von context-budget und für Skill-Tests in größeren Setups.

Skill Testing
Favoriten 0GitHub 156.1k
O
writing-skills

von obra

writing-skills ist ein Leitfaden für Skill Authoring, mit dem du Agent-Skills in einem testgetriebenen Workflow erstellen, überarbeiten und validieren kannst. Du lernst die wichtigsten Dateien, Voraussetzungen und praktischen Schritte für Druckszenarien, Baseline-Tests und prägnante Iterationen an `SKILL.md` kennen.

Skill Authoring
Favoriten 0GitHub 121.9k
A
skill-creator

von anthropics

skill-creator ist eine Meta-Skill zur Skill-Erstellung: neue Skills entwerfen, bestehende `SKILL.md` überarbeiten, Evals ausführen, Varianten vergleichen und Trigger-Beschreibungen mit Repo-Skripten und Review-Tools verbessern.

Skill Authoring
Favoriten 2GitHub 105.1k
W
llm-evaluation

von wshobson

Mit dem Skill llm-evaluation erstellen Sie wiederholbare Evaluationspläne für LLM-Apps, Prompts, RAG-Systeme und Modelländerungen – mit Metriken, menschlicher Bewertung, Benchmarking und Regressionsprüfungen.

Model Evaluation
Favoriten 0GitHub 32.6k
G
agentic-eval

von github

agentic-eval ist eine GitHub Copilot Skill, die zeigt, wie sich Evaluierungsschleifen für KI-Ausgaben mit Reflection, rubric-basierter Bewertung und Evaluator-Optimizer-Mustern aufbauen lassen.

Model Evaluation
Favoriten 0GitHub 27.8k
A
test-driven-development

von addyosmani

Das test-driven-development-Skill hilft dir, Code zu ändern, indem du zuerst einen fehlschlagenden Test schreibst und dann nur die kleinste nötige Korrektur vornimmst, damit er besteht. Nutze es für Logikänderungen, Bugfixes, Regressionen und Grenzfälle, bei denen ein belastbarer Nachweis wichtiger ist als ein plausibler Patch.

Skill Testing
Favoriten 0GitHub 18.8k
P
test-scenarios

von phuryn

Die test-scenarios-Skill verwandelt User Stories in ausführbare Test-Szenarien mit Zielen, Ausgangsbedingungen, Benutzerrollen, Schritten, erwarteten Ergebnissen und Edge Cases. Verwende sie für QA-Testfälle, Abnahmetests, Feature-Validierung und klareres Testdesign, wenn du einen strukturierten Leitfaden für test scenarios brauchst.

Acceptance Testing
Favoriten 0GitHub 11k
T
testing-handbook-generator

von trailofbits

testing-handbook-generator ist eine Meta-Skill zum Erstellen von Claude Code Skills aus dem Trail of Bits Testing Handbook (appsec.guide). Sie hilft Skill-Autor:innen, Security Engineers und Maintainer:innen dabei, Handbuchabschnitte in wiederverwendbare Skills mit klarem Workflow, sauberem Scope-Management und reproduzierbarer Generierung zu überführen. Nutze die testing-handbook-generator Skill, wenn du einen testing-handbook-generator Leitfaden für das Authoring vom Handbuch zum Skill brauchst.

Skill Authoring
Favoriten 0GitHub 5k
T
property-based-testing

von trailofbits

Property-Based-Testing Skill-Guide zum Schreiben, Prüfen und Verbessern von PBT über Sprachen und Smart Contracts hinweg. Nutzen Sie diesen Property-Based-Testing-Guide, um Roundtrip-, Idempotenz-, Invarianten-, Parser-, Validator- und Normalisierungsfälle zu erkennen, Generatoren auszuwählen und zu entscheiden, wann Property-Based-Testing stärker ist als beispielbasierte Tests.

Skill Testing
Favoriten 0GitHub 5k
S
skill-judge

von softaworks

skill-judge ist ein Skill zum Reviewen und Bewerten von AI-Skill-Paketen und SKILL.md-Dateien. Es hilft Autorinnen, Autoren und Maintainers dabei, Wissenszuwachs, Aktivierungsklarheit, Workflow-Qualität und Veröffentlichungsreife zu beurteilen – inklusive konkreter Hinweise zur Verbesserung.

Skill Validation
Favoriten 0GitHub 1.3k
N
judge

von NeoLabHQ

Judge ist eine zweiphasige Bewertungs-Skill, die zuerst einen Meta-Judge und dann einen Judge-Sub-Agenten startet, um Arbeiten mit isoliertem Kontext, Belegen und klaren Kriterien zu bewerten. Nutzen Sie sie für reine Report-Reviews von Code, Texten, Analysen oder Skill Authoring, wenn Sie einen belastbaren Judge-Leitfaden statt einer lockeren Meinung benötigen.

Skill Authoring
Favoriten 0GitHub 982
N
implement-task

von NeoLabHQ

implement-task ist eine Workflow-Automatisierungs-Skill, die eine Aufgabenbeschreibung in umgesetzte Änderungen überführt und dabei kritische Schritte automatisch mit LLM-as-Judge verifiziert. Sie hilft Agents, eine Task-Datei zu lesen, die Arbeit schrittweise auszuführen, die Qualität zu prüfen und bei teilweiser Fertigstellung mit weniger Rätselraten weiterzumachen.

Workflow Automation
Favoriten 0GitHub 982
A
playwright-testing

von alinaqi

playwright-testing-Skill zum Schreiben und Debuggen von Playwright-End-to-End-Tests mit Page Objects, Browser-übergreifenden Läufen, CI-tauglichem Setup, Authentifizierungsbehandlung und stabiler Teststruktur.

Skill Testing
Favoriten 0GitHub 607
A
darwin-skill

von alchaincyf

darwin-skill hilft dabei, SKILL.md-Dateien mit einem wiederholbaren Ablauf zu verbessern: bewerten, überarbeiten, testen und Änderungen anschließend beibehalten oder zurücknehmen. Entwickelt für Skill Authoring, kombiniert es Rubric-Scoring mit promptbasierter Validierung und unterstützt visuelle Ergebnis-Outputs aus Repo-Templates und Assets.

Skill Authoring
Favoriten 0GitHub 549
C
skill-creator

von ComposioHQ

skill-creator ist ein Leitfaden für Skill Authoring, mit dem du wiederverwendbare Skills mit klarem Umfang, definierten Workflows, Referenzen und Skripten erstellen oder aktualisieren kannst. Nutze den skill-creator Skill, wenn du über Sessions hinweg konsistentes Verhalten, praktische Unterstützung beim Packaging und weniger Rätselraten als bei einem einmaligen Prompt brauchst.

Skill Authoring
Favoriten 0GitHub 48