Llm

Llm taxonomy generated by the site skill importer.

24 skills
A
regex-vs-llm-structured-text

par affaan-m

Skill regex-vs-llm-structured-text pour choisir entre regex et LLM dans l’extraction de texte structuré. Commencez par un parsing déterministe, ajoutez une validation par LLM pour les cas limites à faible confiance, et utilisez un pipeline plus économique et plus fiable pour les documents, formulaires, factures et l’analyse de données.

Data Analysis
Favoris 0GitHub 156.2k
A
llm-trading-agent-security

par affaan-m

llm-trading-agent-security est un guide pratique pour sécuriser des agents de trading autonomes disposant d’une autorité sur un wallet. Il couvre l’injection de prompts, les limites de dépense, la simulation avant envoi, les coupe-circuits, l’exécution sensible au MEV et l’isolation des clés afin de réduire le risque de perte financière dans un audit de sécurité.

Security Audit
Favoris 0GitHub 156.2k
A
foundation-models-on-device

par affaan-m

foundation-models-on-device vous aide à créer des fonctionnalités Apple FoundationModels sur iOS 26+ avec génération de texte sur l’appareil, sortie guidée avec @Generable, appel d’outils, streaming par instantanés et vérifications de disponibilité pour des applications axées sur la confidentialité.

Backend Development
Favoris 0GitHub 156.1k
A
cost-aware-llm-pipeline

par affaan-m

cost-aware-llm-pipeline vous aide à créer des workflows LLM qui maîtrisent les dépenses API grâce au routage de modèles, au suivi immuable des coûts, à la gestion des retries et au caching des prompts. Idéal pour les jobs batch, les pipelines documentaires et l’automatisation de workflows où le volume de sortie et les arbitrages de qualité doivent être encadrés clairement.

Workflow Automation
Favoris 0GitHub 156.1k
S
fact-checker

par Shubhamsaboo

fact-checker est une skill pilotée par prompt pour vérifier des affirmations de façon structurée, évaluer les sources et produire des verdicts clairs avec niveau de confiance et contexte. Installez-la depuis Shubhamsaboo/awesome-llm-apps pour vérifier des déclarations, rumeurs, statistiques et affirmations trompeuses avec un workflow reproductible.

Fact Checking
Favoris 0GitHub 104.2k
S
deep-research

par Shubhamsaboo

deep-research est une skill d’agent légère pour mener des recherches web structurées. Elle aide à cadrer le sujet, recouper plusieurs sources, évaluer leur crédibilité et synthétiser des résultats sourcés à partir d’un workflow unique dans `SKILL.md`.

Web Research
Favoris 0GitHub 104.2k
G
cso

par garrytan

cso est une skill d’audit sécurité de type Chief Security Officer destinée aux agents. Elle aide à examiner des codebases et des workflows pour détecter les fuites de secrets, les risques liés aux dépendances et à la chaîne d’approvisionnement, la sécurité CI/CD, ainsi que la sécurité LLM/IA, en s’appuyant sur OWASP Top 10 et STRIDE. Utilisez cso pour des revues d’audit sécurité structurées, avec des seuils de confiance, une vérification active et le suivi des tendances.

Security Audit
Favoris 0GitHub 91.8k
W
evaluation-methodology

par wshobson

La compétence evaluation-methodology explique le scoring PluginEval pour Model Evaluation, avec les couches d’évaluation, les rubrics, le score composite, les seuils de badges et des conseils pratiques pour interpréter les résultats et améliorer les dimensions faibles.

Model Evaluation
Favoris 0GitHub 32.6k
W
prompt-engineering-patterns

par wshobson

prompt-engineering-patterns est une skill pratique pour concevoir des prompts de production. Elle couvre le contexte d’installation, des modèles réutilisables, des exemples few-shot, les sorties structurées et des workflows d’optimisation de prompts pour le Context Engineering.

Context Engineering
Favoris 0GitHub 32.6k
W
rag-implementation

par wshobson

rag-implementation est une skill pratique pour concevoir des systèmes RAG avec bases vectorielles, embeddings, schémas de retrieval et workflows de réponses fondées sur les sources. Utilisez-la pour comparer les options de stack, orienter les choix d’architecture et guider l’installation ainsi que l’usage pour la Q&A documentaire, les assistants de connaissance et la recherche sémantique.

RAG Workflows
Favoris 0GitHub 32.6k
W
similarity-search-patterns

par wshobson

similarity-search-patterns vous aide à choisir les métriques de distance, les types d’index et les approches de récupération hybride pour la recherche sémantique et les workflows RAG. Utilisez-le pour arbitrer les compromis d’une recherche vectorielle en production entre rappel, latence et passage à l’échelle.

RAG Workflows
Favoris 0GitHub 32.6k
W
hybrid-search-implementation

par wshobson

La compétence hybrid-search-implementation montre comment combiner la recherche vectorielle et lexicale avec RRF, la fusion linéaire, le reranking et des schémas en cascade pour des systèmes de RAG et de recherche.

RAG Workflows
Favoris 0GitHub 32.6k
W
langchain-architecture

par wshobson

langchain-architecture est un guide de conception pour créer des applications LangChain 1.x et LangGraph. Il aide à choisir entre les patterns de chaînes, d’agents, de retrieval, de mémoire et d’orchestration avec état avant l’implémentation.

Agent Orchestration
Favoris 0GitHub 32.6k
W
llm-evaluation

par wshobson

Utilisez le skill llm-evaluation pour concevoir des plans d’évaluation reproductibles pour les applications LLM, les prompts, les systèmes RAG et les changements de modèle, avec des métriques, de la revue humaine, du benchmarking et des vérifications de régression.

Model Evaluation
Favoris 0GitHub 32.6k
W
embedding-strategies

par wshobson

embedding-strategies vous aide à choisir et optimiser des modèles d’embedding pour la recherche sémantique et les workflows RAG, avec des conseils concrets sur le chunking, les compromis entre modèles, le contenu multilingue et l’évaluation de la récupération.

RAG Workflows
Favoris 0GitHub 32.6k
G
ai-prompt-engineering-safety-review

par github

ai-prompt-engineering-safety-review est une skill d’audit de prompts conçue pour examiner les prompts de LLM sous l’angle de la sécurité, des biais, des faiblesses de sécurité et de la qualité des résultats avant une mise en production, une évaluation ou un usage en contact avec des clients.

Model Evaluation
Favoris 0GitHub 27.8k
G
agentic-eval

par github

agentic-eval est une compétence GitHub Copilot qui montre comment créer des boucles d’évaluation des sorties d’IA à l’aide de la réflexion, de critiques fondées sur des rubriques et de schémas evaluator-optimizer.

Model Evaluation
Favoris 0GitHub 27.8k
V
develop-ai-functions-example

par vercel

develop-ai-functions-example vous aide à créer ou modifier des exemples AI SDK exécutables dans vercel/ai sous `examples/ai-functions/src/`. Servez-vous-en pour choisir la bonne catégorie, respecter les conventions du dépôt et produire des exemples minimaux pour la validation de providers, des démos ou des fixtures.

Skill Examples
Favoris 0GitHub 23.1k
H
huggingface-papers

par huggingface

huggingface-papers vous aide à lire les pages de papiers Hugging Face en Markdown et à extraire des métadonnées structurées depuis l’API des papers, notamment les auteurs, les modèles liés, les jeux de données, les Spaces, les dépôts GitHub et les pages de projet. Utilisez-le pour les URL de pages de papiers Hugging Face, les URL ou identifiants arXiv, ainsi que pour des workflows de recherche académique qui exigent des preuves issues de la page du papier.

Academic Research
Favoris 0GitHub 10.4k
H
huggingface-llm-trainer

par huggingface

huggingface-llm-trainer vous aide à entraîner ou affiner des modèles de langage et de vision sur Hugging Face Jobs avec TRL ou Unsloth. Utilisez ce skill huggingface-llm-trainer pour le SFT, le DPO, le GRPO, le reward modeling, la vérification des jeux de données, le choix du GPU, la sauvegarde sur Hub, le suivi Trackio et l’export GGUF dans des workflows de développement backend.

Backend Development
Favoris 0GitHub 10.4k
H
huggingface-local-models

par huggingface

huggingface-local-models vous aide à trouver des modèles Hugging Face exécutables en local avec llama.cpp et GGUF, à choisir une quantification adaptée, puis à les lancer sur CPU, Apple Metal, CUDA ou ROCm. Le guide couvre la découverte des modèles, la recherche exacte des fichiers GGUF, la configuration en mode serveur ou en ligne de commande, ainsi qu’un chemin rapide pour le développement backend et l’inférence locale privée.

Backend Development
Favoris 0GitHub 10.4k
H
huggingface-community-evals

par huggingface

huggingface-community-evals vous aide à lancer स्थानीयement des évaluations de modèles du Hugging Face Hub avec inspect-ai ou lighteval. Servez-vous-en pour choisir le backend, effectuer des tests de fumée et disposer d’un guide pratique pour vLLM, Transformers ou accelerate. Ne convient pas à l’orchestration HF Jobs, aux PR de model-card, à la publication de .eval_results ni à l’automatisation de community-evals.

Model Evaluation
Favoris 0GitHub 10.4k
A
llm-patterns

par alinaqi

llm-patterns vous aide à concevoir une logique applicative orientée IA, où les LLM prennent en charge le raisonnement, l’extraction et la génération, tandis que le code gère la validation, l’orientation et le traitement des erreurs. Utilisez la skill llm-patterns pour structurer plus clairement vos prompts, créer des workflows LLM testables et bénéficier de conseils pratiques pour la création de skills.

Skill Authoring
Favoris 0GitHub 607
A
ai-models

par alinaqi

ai-models est un skill de référence pour choisir les modèles d’IA actuels selon la tâche, le coût, la latence et la qualité. Il aide les auteurs de skills et les développeurs à prendre rapidement des décisions de modèle solides pour le chat, le code, la vision, les embeddings, la voix et la génération d’images.

Skill Authoring
Favoris 0GitHub 0