Llm

Llm taxonomy generated by the site skill importer.

25 skills
A
regex-vs-llm-structured-text

por affaan-m

Skill regex-vs-llm-structured-text para elegir entre regex o un LLM en la extracción de texto estructurado. Empieza con un parsing determinista, añade validación con LLM para casos límite de baja confianza y usa un pipeline más económico y fiable para documentos, formularios, facturas y análisis de datos.

Data Analysis
Favoritos 0GitHub 156.2k
A
llm-trading-agent-security

por affaan-m

llm-trading-agent-security es una guía práctica para proteger agentes de trading autónomos con autoridad sobre wallets. Cubre inyección de prompts, límites de gasto, simulación antes del envío, circuit breakers, ejecución con conciencia de MEV y aislamiento de claves para reducir el riesgo de pérdidas financieras en una auditoría de seguridad.

Security Audit
Favoritos 0GitHub 156.2k
A
foundation-models-on-device

por affaan-m

foundation-models-on-device te ayuda a crear funciones de Apple FoundationModels en iOS 26+ con generación de texto en el dispositivo, salida guiada con @Generable, llamadas a herramientas, streaming de instantáneas y comprobaciones de disponibilidad para apps centradas en la privacidad.

Backend Development
Favoritos 0GitHub 156.1k
A
cost-aware-llm-pipeline

por affaan-m

cost-aware-llm-pipeline te ayuda a crear flujos de trabajo con LLM que controlan el gasto en API mediante enrutamiento de modelos, seguimiento inmutable de costes, gestión de reintentos y caché de prompts. Es ideal para trabajos por lotes, pipelines de documentos y automatización de flujos de trabajo cuando el volumen de salida y los compromisos de calidad necesitan reglas claras.

Workflow Automation
Favoritos 0GitHub 156.1k
S
fact-checker

por Shubhamsaboo

fact-checker es una skill guiada por prompts para la verificación estructurada de afirmaciones, la evaluación de fuentes y la emisión de veredictos claros con nivel de confianza y contexto. Instálala desde Shubhamsaboo/awesome-llm-apps para comprobar declaraciones, rumores, estadísticas y afirmaciones engañosas con un flujo de trabajo repetible.

Fact Checking
Favoritos 0GitHub 104.2k
S
deep-research

por Shubhamsaboo

deep-research es una skill ligera para agentes orientada a la investigación web estructurada. Ayuda a definir el alcance, reunir varias fuentes, evaluar su credibilidad y sintetizar hallazgos con citas a partir de un único flujo de trabajo en SKILL.md.

Web Research
Favoritos 0GitHub 104.2k
G
cso

por garrytan

cso es una habilidad de auditoría de seguridad, orientada al estilo de un Chief Security Officer, para agentes. Ayuda a revisar bases de código y flujos de trabajo en busca de exposición de secretos, riesgos de dependencias y cadena de suministro, seguridad de CI/CD y seguridad de LLM/IA usando OWASP Top 10 y STRIDE. Usa cso para revisiones estructuradas de auditoría de seguridad con puertas de confianza, verificación activa y seguimiento de tendencias.

Security Audit
Favoritos 0GitHub 91.8k
W
evaluation-methodology

por wshobson

La skill evaluation-methodology explica la puntuación PluginEval para Model Evaluation, incluidas las capas, las rúbricas, la puntuación compuesta, los umbrales de insignias y la orientación práctica para interpretar resultados y mejorar las dimensiones más débiles.

Model Evaluation
Favoritos 0GitHub 32.6k
W
prompt-engineering-patterns

por wshobson

prompt-engineering-patterns es una skill práctica para diseñar prompts en producción. Cubre el contexto de instalación, plantillas reutilizables, ejemplos few-shot, salidas estructuradas y flujos de optimización de prompts para Context Engineering.

Context Engineering
Favoritos 0GitHub 32.6k
W
rag-implementation

por wshobson

rag-implementation es una skill práctica para planificar sistemas RAG con bases de datos vectoriales, embeddings, patrones de recuperación y flujos de respuestas fundamentadas. Úsala para comparar opciones del stack, orientar decisiones de arquitectura y guiar la instalación y el uso en Q&A sobre documentos, asistentes de conocimiento y búsqueda semántica.

RAG Workflows
Favoritos 0GitHub 32.6k
W
similarity-search-patterns

por wshobson

similarity-search-patterns te ayuda a elegir métricas de distancia, tipos de índice y patrones de recuperación híbrida para búsqueda semántica y flujos de trabajo de RAG. Úsalo para planificar en producción los compromisos de la búsqueda vectorial entre recall, latencia y escalabilidad.

RAG Workflows
Favoritos 0GitHub 32.6k
W
hybrid-search-implementation

por wshobson

La skill hybrid-search-implementation muestra cómo combinar recuperación vectorial y por palabras clave con RRF, fusión lineal, reranking y patrones en cascada para sistemas de búsqueda y RAG.

RAG Workflows
Favoritos 0GitHub 32.6k
W
langchain-architecture

por wshobson

langchain-architecture es una guía de diseño para crear aplicaciones con LangChain 1.x y LangGraph. Úsala para decidir entre cadenas, agentes, retrieval, memoria y patrones de orquestación con estado antes de implementar.

Agent Orchestration
Favoritos 0GitHub 32.6k
W
llm-evaluation

por wshobson

Usa la skill llm-evaluation para diseñar planes de evaluación repetibles para apps con LLM, prompts, sistemas RAG y cambios de modelo, con métricas, revisión humana, benchmarking y controles de regresión.

Model Evaluation
Favoritos 0GitHub 32.6k
W
embedding-strategies

por wshobson

embedding-strategies te ayuda a elegir y optimizar modelos de embeddings para búsqueda semántica y flujos de trabajo RAG, con orientación práctica sobre chunking, compromisos entre modelos, contenido multilingüe y evaluación de recuperación.

RAG Workflows
Favoritos 0GitHub 32.6k
G
ai-prompt-engineering-safety-review

por github

ai-prompt-engineering-safety-review es una skill de auditoría de prompts para revisar prompts de LLM en busca de riesgos de seguridad, sesgos, debilidades de seguridad y problemas de calidad de salida antes de su uso en producción, evaluación o entornos de cara al cliente.

Model Evaluation
Favoritos 0GitHub 27.8k
G
agentic-eval

por github

agentic-eval es una skill de GitHub Copilot que muestra cómo crear bucles de evaluación para salidas de IA mediante reflexión, crítica basada en rúbricas y patrones evaluator-optimizer.

Model Evaluation
Favoritos 0GitHub 27.8k
V
develop-ai-functions-example

por vercel

develop-ai-functions-example te ayuda a crear o modificar ejemplos ejecutables del AI SDK en vercel/ai dentro de `examples/ai-functions/src/`. Úsalo para elegir la categoría adecuada, seguir las convenciones del repositorio y crear ejemplos mínimos para validación de proveedores, demos o fixtures.

Skill Examples
Favoritos 0GitHub 23.1k
H
huggingface-papers

por huggingface

huggingface-papers te ayuda a leer páginas de papers de Hugging Face en markdown y a extraer metadatos estructurados desde la API de papers, incluidos autores, modelos enlazados, datasets, Spaces, repositorios de GitHub y páginas de proyecto. Úsalo para URLs de papers de Hugging Face, URLs o IDs de arXiv, y flujos de trabajo de investigación académica que necesitan evidencias de la página del paper.

Academic Research
Favoritos 0GitHub 10.4k
H
huggingface-llm-trainer

por huggingface

huggingface-llm-trainer te ayuda a entrenar o ajustar modelos de lenguaje y visión en Hugging Face Jobs con TRL o Unsloth. Usa esta skill de huggingface-llm-trainer para SFT, DPO, GRPO, modelado de recompensas, comprobación de datasets, selección de GPU, guardado en Hub, monitorización con Trackio y exportación a GGUF para flujos de trabajo de desarrollo backend.

Backend Development
Favoritos 0GitHub 10.4k
H
huggingface-local-models

por huggingface

huggingface-local-models te ayuda a encontrar modelos de Hugging Face que se ejecutan en local con llama.cpp y GGUF, elegir una cuantización práctica y ponerlos en marcha en CPU, Apple Metal, CUDA o ROCm. Cubre la खोज de modelos, la localización exacta del archivo GGUF, la configuración de servidor frente a CLI y una vía rápida para desarrollo de backend e inferencia local privada.

Backend Development
Favoritos 0GitHub 10.4k
H
huggingface-community-evals

por huggingface

huggingface-community-evals te ayuda a ejecutar localmente evaluaciones de modelos de Hugging Face Hub con inspect-ai o lighteval. Úsalo para elegir backend, hacer pruebas rápidas y consultar una guía práctica de vLLM, Transformers o accelerate. No sirve para orquestación de HF Jobs, PRs de model cards, publicación de .eval_results ni automatización de community-evals.

Model Evaluation
Favoritos 0GitHub 10.4k
A
llm-patterns

por alinaqi

llm-patterns te ayuda a diseñar la lógica de aplicaciones AI-first, donde los LLM se encargan del razonamiento, la extracción y la generación, mientras el código se ocupa de la validación, el enrutamiento y el manejo de errores. Usa la skill llm-patterns para una estructura de prompts más clara, flujos de trabajo de LLM que se pueden probar y orientación práctica para la creación de skills.

Skill Authoring
Favoritos 0GitHub 607
M
detecting-ai-model-prompt-injection-attacks

por mukul975

detecting-ai-model-prompt-injection-attacks es una skill de ciberseguridad para filtrar texto no confiable antes de que llegue a un LLM. Usa regex en capas, puntuación heurística y clasificación basada en DeBERTa para detectar ataques directos e indirectos de prompt injection. Es útil para validación de entradas en chatbots, ingesta de documentos y threat modeling.

Threat Modeling
Favoritos 0GitHub 0
Llm