Skill Testing

Explorez les agent skills lies a Skill Testing dans Creation de skills et comparez les workflows, outils et cas d usage associes.

27 skills
A
verification-loop

par affaan-m

verification-loop est un workflow de vérification pour Claude Code qui permet de contrôler les builds, les types, le lint, les tests, la sécurité et les diffs après des modifications de code. Cette skill verification-loop est utile avant les PR et après des refactorings, lorsque vous voulez un guide structuré de post-modification plutôt qu’une invite générique.

Verification
Favoris 0GitHub 156.3k
A
rust-testing

par affaan-m

rust-testing est un guide pratique des patterns de test en Rust, couvrant les tests unitaires, les tests d’intégration, les tests asynchrones, les tests basés sur les propriétés, les mocks et la couverture. Il vous aide à choisir la bonne forme de test et à suivre un workflow TDD avec moins d’hésitation.

Skill Testing
Favoris 0GitHub 156.2k
A
python-testing

par affaan-m

python-testing vous aide à concevoir, écrire et relire des tests Python avec un workflow centré sur pytest. Utilisez-le pour le TDD, les fixtures, le mocking, la paramétrisation, les vérifications de couverture et le maintien d’une suite de tests fiable pour Skill Testing et des projets réels.

Skill Testing
Favoris 0GitHub 156.2k
A
perl-testing

par affaan-m

perl-testing est un guide pratique pour écrire, exécuter et améliorer des tests Perl avec Test2::V0, Test::More, prove, le mocking, la couverture et le TDD. Utilisez le skill perl-testing pour obtenir des conseils d’installation, des modèles d’utilisation, de l’aide à la migration et un débogage plus rapide des suites en échec.

Skill Testing
Favoris 0GitHub 156.2k
A
kotlin-testing

par affaan-m

kotlin-testing est un guide pratique pour l’automatisation des tests Kotlin avec Kotest, MockK, les tests de coroutines, les tests basés sur les propriétés et la couverture Kover. Utilisez ce skill kotlin-testing pour suivre un workflow adapté au TDD, écrire des tests unitaires et de composants plus lisibles, et réduire les hésitations lors du mock de dépendances ou des tests de code suspendu.

Test Automation
Favoris 0GitHub 156.2k
A
golang-testing

par affaan-m

La compétence golang-testing vous aide à écrire et améliorer des tests Go avec des cas pilotés par tableaux, des sous-tests, des benchmarks, du fuzzing et un TDD tenant compte de la couverture. Elle est pensée pour les développeurs qui travaillent sur du vrai code Go et qui veulent des conseils pratiques et idiomatiques plutôt que des recommandations génériques sur les tests.

Test Automation
Favoris 0GitHub 156.2k
A
eval-harness

par affaan-m

Le skill eval-harness est un cadre d’évaluation formel pour les sessions Claude Code et le développement guidé par l’évaluation. Il vous aide à définir des critères de réussite/échec, à construire des évaluations de capacités et de régression, et à mesurer la fiabilité de l’agent avant de déployer des changements de prompt ou de workflow.

Model Evaluation
Favoris 0GitHub 156.1k
A
csharp-testing

par affaan-m

csharp-testing est un guide pratique pour l’automatisation des tests en C# et .NET, couvrant xUnit, FluentAssertions, le mocking, les tests d’intégration et une structure de tests lisible pour une couverture maintenable.

Test Automation
Favoris 0GitHub 156.1k
A
cpp-testing

par affaan-m

La skill cpp-testing vous aide à écrire, exécuter et déboguer des tests C++ avec GoogleTest, GoogleMock, CMake et CTest. Utilisez-la pour la couverture, la correction de tests instables, le diagnostic avec sanitizers et l’usage concret de cpp-testing dans les projets C++ modernes.

Test Automation
Favoris 0GitHub 156.1k
A
context-budget

par affaan-m

Le skill context-budget audite l’utilisation du contexte de Claude Code à travers les agents, les skills, les règles et les serveurs MCP. Il aide à repérer le gonflement, les doublons et les composants coûteux, puis renvoie des actions de nettoyage priorisées. Utilisez ce guide context-budget pour un usage pratique du budget de contexte et pour les tests de skill dans les configurations plus importantes.

Skill Testing
Favoris 0GitHub 156.1k
O
writing-skills

par obra

writing-skills est un guide de Skill Authoring pour créer, modifier et valider des agent skills avec une approche pilotée par les tests. Découvrez les fichiers clés, les prérequis et les étapes concrètes pour les scénarios de pression, les tests de référence et l’itération concise de `SKILL.md`.

Skill Authoring
Favoris 0GitHub 121.9k
A
skill-creator

par anthropics

skill-creator est une méta-skill de création de skills pour rédiger de nouvelles skills, réviser des fichiers SKILL.md, lancer des évaluations, comparer des variantes et améliorer les descriptions de déclenchement avec les scripts du dépôt et des outils de revue.

Skill Authoring
Favoris 2GitHub 105.1k
W
llm-evaluation

par wshobson

Utilisez le skill llm-evaluation pour concevoir des plans d’évaluation reproductibles pour les applications LLM, les prompts, les systèmes RAG et les changements de modèle, avec des métriques, de la revue humaine, du benchmarking et des vérifications de régression.

Model Evaluation
Favoris 0GitHub 32.6k
G
agentic-eval

par github

agentic-eval est une compétence GitHub Copilot qui montre comment créer des boucles d’évaluation des sorties d’IA à l’aide de la réflexion, de critiques fondées sur des rubriques et de schémas evaluator-optimizer.

Model Evaluation
Favoris 0GitHub 27.8k
A
test-driven-development

par addyosmani

Le skill test-driven-development vous aide à modifier du code en écrivant d’abord un test qui échoue, puis en appliquant le correctif minimal pour le faire passer. Utilisez-le pour les changements de logique, les corrections de bogues, les régressions et les cas limites, quand la preuve compte plus qu’un correctif plausible.

Skill Testing
Favoris 0GitHub 18.8k
P
test-scenarios

par phuryn

La skill test-scenarios transforme des user stories en scénarios de test prêts à exécuter, avec objectifs, conditions de départ, rôles utilisateur, étapes, résultats attendus et cas limites. Utilisez-la pour des cas de test QA, des tests d’acceptation, la validation de fonctionnalités et une conception de tests plus claire lorsque vous avez besoin d’un guide structuré de test-scenarios.

Acceptance Testing
Favoris 0GitHub 11k
T
testing-handbook-generator

par trailofbits

testing-handbook-generator est un méta-skill conçu pour créer des skills Claude Code à partir du Trail of Bits Testing Handbook (appsec.guide). Il aide les auteurs de skills, les ingénieurs sécurité et les mainteneurs à transformer des sections du handbook en skills réutilisables, avec un workflow clair, un périmètre maîtrisé et une génération reproductible. Utilisez le skill testing-handbook-generator quand vous avez besoin d’un guide testing-handbook-generator pour concevoir des skills à partir du handbook.

Skill Authoring
Favoris 0GitHub 5k
T
property-based-testing

par trailofbits

Guide du skill property-based-testing pour écrire, relire et améliorer des tests PBT dans plusieurs langages et pour les smart contracts. Utilisez ce guide property-based-testing pour repérer les cas de roundtrip, d’idempotence, d’invariants, de parseurs, de validateurs et de normalisation, choisir des générateurs et décider quand le property-based-testing est plus pertinent que des tests basés sur des exemples.

Skill Testing
Favoris 0GitHub 5k
S
skill-judge

par softaworks

skill-judge est un skill de revue et de scoring conçu pour auditer des packages de skills IA et des fichiers SKILL.md. Il aide les auteurs et les mainteneurs à évaluer l’écart de connaissance, la clarté d’activation, la qualité du workflow et le niveau de préparation à la publication, avec des pistes d’amélioration concrètes.

Skill Validation
Favoris 0GitHub 1.3k
N
judge

par NeoLabHQ

Judge est un skill d’évaluation en deux phases qui lance d’abord un méta-judge, puis un sous-agent judge pour noter un travail avec un contexte isolé, des preuves et des critères clairs. Utilisez-le pour des revues en mode rapport uniquement sur du code, des textes, des analyses ou du Skill Authoring lorsque vous avez besoin d’un guide de jugement défendable plutôt que d’un simple avis informel.

Skill Authoring
Favoris 0GitHub 982
N
implement-task

par NeoLabHQ

implement-task est une skill d’automatisation de workflow qui transforme une spécification de tâche en modifications implémentées, avec une vérification automatisée par LLM-as-Judge sur les étapes critiques. Elle aide les agents à lire un fichier de tâche, exécuter le travail dans l’ordre, vérifier la qualité et reprendre à partir d’un avancement partiel avec moins d’hypothèses à faire.

Workflow Automation
Favoris 0GitHub 982
A
playwright-testing

par alinaqi

playwright-testing pour écrire et déboguer des tests end-to-end Playwright avec des page objects, des exécutions multi-navigateurs, une configuration adaptée au CI, la gestion de l’authentification et une structure de test stable.

Skill Testing
Favoris 0GitHub 607
A
darwin-skill

par alchaincyf

darwin-skill aide à améliorer les fichiers SKILL.md grâce à une boucle reproductible : évaluer, réviser, tester, puis conserver ou annuler les changements. Conçu pour le Skill Authoring, il combine un scoring par grille d’évaluation avec une validation basée sur des prompts et prend en charge des sorties visuelles à partir de modèles et d’assets du dépôt.

Skill Authoring
Favoris 0GitHub 549
C
skill-creator

par ComposioHQ

skill-creator est un guide de création de Skills qui vous aide à créer ou mettre à jour des Skills réutilisables avec un périmètre clair, des workflows, des références et des scripts. Utilisez le skill-creator lorsque vous avez besoin d’un comportement cohérent d’une session à l’autre, d’un support pratique pour le packaging et de moins d’improvisation qu’avec un prompt ponctuel.

Skill Authoring
Favoris 0GitHub 48