Llm

Llm taxonomy generated by the site skill importer.

25 skills
A
regex-vs-llm-structured-text

por affaan-m

Skill regex-vs-llm-structured-text para escolher entre regex ou LLM na extração de texto estruturado. Comece com parsing determinístico, adicione validação com LLM para casos extremos de baixa confiança e use um pipeline mais barato e confiável para documentos, formulários, notas fiscais e análise de dados.

Data Analysis
Favoritos 0GitHub 156.2k
A
llm-trading-agent-security

por affaan-m

llm-trading-agent-security é um guia prático para proteger agentes autônomos de trading com autoridade sobre carteiras. Ele aborda prompt injection, limites de gasto, simulação antes do envio, circuit breakers, execução ciente de MEV e isolamento de chaves para reduzir o risco de perdas financeiras em uma Security Audit.

Security Audit
Favoritos 0GitHub 156.2k
A
foundation-models-on-device

por affaan-m

foundation-models-on-device ajuda você a criar recursos do Apple FoundationModels no iOS 26+ com geração de texto no dispositivo, saída orientada com @Generable, chamada de ferramentas, streaming por snapshot e verificações de disponibilidade para apps com foco em privacidade.

Backend Development
Favoritos 0GitHub 156.1k
A
cost-aware-llm-pipeline

por affaan-m

cost-aware-llm-pipeline ajuda você a criar fluxos de trabalho com LLM que controlam os gastos com API por meio de roteamento de modelos, rastreamento imutável de custos, tratamento de retries e prompt caching. É ideal para jobs em lote, pipelines de documentos e automação de workflows em que volume de saída e trade-offs de qualidade precisam seguir regras claras.

Workflow Automation
Favoritos 0GitHub 156.1k
S
fact-checker

por Shubhamsaboo

fact-checker é uma skill orientada por prompt para verificação estruturada de alegações, avaliação de fontes e emissão de vereditos claros, com nível de confiança e contexto. Instale a partir de Shubhamsaboo/awesome-llm-apps para checar fatos em afirmações, rumores, estatísticas e alegações enganosas com um fluxo de trabalho reproduzível.

Fact Checking
Favoritos 0GitHub 104.2k
S
deep-research

por Shubhamsaboo

deep-research é uma skill leve de agente para pesquisa estruturada na web. Ela ajuda a definir o escopo, reunir múltiplas fontes, avaliar a credibilidade e sintetizar resultados com citações a partir de um único fluxo em `SKILL.md`.

Web Research
Favoritos 0GitHub 104.2k
G
cso

por garrytan

cso é uma skill de auditoria de segurança no estilo Chief Security Officer para agentes. Ela ajuda a revisar codebases e fluxos de trabalho em busca de exposição de segredos, risco de dependências e cadeia de suprimentos, segurança de CI/CD e segurança de LLM/IA usando OWASP Top 10 e STRIDE. Use cso para revisões estruturadas de Security Audit com gates de confiança, verificação ativa e acompanhamento de tendências.

Security Audit
Favoritos 0GitHub 91.8k
W
evaluation-methodology

por wshobson

A skill evaluation-methodology explica a pontuação PluginEval para Model Evaluation, incluindo camadas, rubricas, pontuação composta, limites de badges e orientações práticas para interpretar resultados e melhorar dimensões fracas.

Model Evaluation
Favoritos 0GitHub 32.6k
W
prompt-engineering-patterns

por wshobson

prompt-engineering-patterns é uma skill prática para design de prompts em produção, cobrindo contexto de instalação, templates reutilizáveis, exemplos few-shot, saídas estruturadas e fluxos de otimização de prompts para Context Engineering.

Context Engineering
Favoritos 0GitHub 32.6k
W
rag-implementation

por wshobson

rag-implementation é uma skill prática para planejar sistemas de RAG com bancos de dados vetoriais, embeddings, padrões de recuperação e fluxos de resposta ancorada em fontes. Use para comparar opções de stack, orientar decisões de arquitetura e guiar instalação e uso em Q&A sobre documentos, assistentes de conhecimento e busca semântica.

RAG Workflows
Favoritos 0GitHub 32.6k
W
similarity-search-patterns

por wshobson

similarity-search-patterns ajuda você a escolher métricas de distância, tipos de índice e padrões de recuperação híbrida para busca semântica e fluxos de trabalho de RAG. Use a skill para planejar os trade-offs da busca vetorial em produção entre recall, latência e escala.

RAG Workflows
Favoritos 0GitHub 32.6k
W
hybrid-search-implementation

por wshobson

A skill hybrid-search-implementation mostra como combinar recuperação vetorial e por palavras-chave com RRF, fusão linear, reranking e padrões em cascata para sistemas de busca e RAG.

RAG Workflows
Favoritos 0GitHub 32.6k
W
langchain-architecture

por wshobson

langchain-architecture é um guia de arquitetura para criar aplicações com LangChain 1.x e LangGraph. Use para decidir entre chains, agents, retrieval, memory e padrões de orquestração com estado antes da implementação.

Agent Orchestration
Favoritos 0GitHub 32.6k
W
llm-evaluation

por wshobson

Use a skill llm-evaluation para criar planos de avaliação repetíveis para apps com LLM, prompts, sistemas RAG e mudanças de modelo, com métricas, revisão humana, benchmarking e verificações de regressão.

Model Evaluation
Favoritos 0GitHub 32.6k
W
embedding-strategies

por wshobson

embedding-strategies ajuda você a escolher e otimizar modelos de embedding para busca semântica e fluxos de RAG, com orientações práticas sobre chunking, trade-offs entre modelos, conteúdo multilíngue e avaliação de recuperação.

RAG Workflows
Favoritos 0GitHub 32.6k
G
ai-prompt-engineering-safety-review

por github

ai-prompt-engineering-safety-review é uma skill de auditoria de prompts para revisar prompts de LLM quanto a segurança, vieses, vulnerabilidades de segurança e qualidade de saída antes do uso em produção, avaliação ou contato com clientes.

Model Evaluation
Favoritos 0GitHub 27.8k
G
agentic-eval

por github

agentic-eval é uma skill do GitHub Copilot que mostra como criar loops de avaliação para saídas de IA usando reflexão, crítica com base em rubricas e padrões evaluator-optimizer.

Model Evaluation
Favoritos 0GitHub 27.8k
V
develop-ai-functions-example

por vercel

develop-ai-functions-example ajuda você a criar ou modificar exemplos executáveis do AI SDK em vercel/ai, em `examples/ai-functions/src/`. Use para escolher a categoria certa, seguir as convenções do repositório e montar exemplos mínimos para validação de providers, demos ou fixtures.

Skill Examples
Favoritos 0GitHub 23.1k
H
huggingface-papers

por huggingface

O huggingface-papers ajuda você a ler páginas de paper do Hugging Face em markdown e extrair metadados estruturados da API de papers, incluindo autores, modelos vinculados, datasets, Spaces, repositórios GitHub e páginas de projeto. Use-o para URLs de paper do Hugging Face, URLs ou IDs do arXiv e fluxos de trabalho de Academic Research que precisem de evidências da página do paper.

Academic Research
Favoritos 0GitHub 10.4k
H
huggingface-llm-trainer

por huggingface

huggingface-llm-trainer ajuda você a treinar ou fazer fine-tuning de modelos de linguagem e visão no Hugging Face Jobs com TRL ou Unsloth. Use esta skill huggingface-llm-trainer para SFT, DPO, GRPO, reward modeling, validação de datasets, escolha de GPU, salvamento no Hub, monitoramento com Trackio e exportação para GGUF em fluxos de trabalho de desenvolvimento de backend.

Backend Development
Favoritos 0GitHub 10.4k
H
huggingface-local-models

por huggingface

huggingface-local-models ajuda você a encontrar modelos do Hugging Face que rodam localmente com llama.cpp e GGUF, escolher uma quantização prática e iniciar em CPU, Apple Metal, CUDA ou ROCm. O guia cobre descoberta de modelos, localização exata do arquivo GGUF, configuração para server ou CLI e um caminho rápido para desenvolvimento de backend e inferência local privada.

Backend Development
Favoritos 0GitHub 10.4k
H
huggingface-community-evals

por huggingface

O huggingface-community-evals ajuda você a executar localmente avaliações de modelos do Hugging Face Hub com inspect-ai ou lighteval. Use-o para escolher o backend, fazer smoke tests e consultar um guia prático de vLLM, Transformers ou accelerate. Não é para orquestração de HF Jobs, PRs de model card, publicação de .eval_results ou automação de community-evals.

Model Evaluation
Favoritos 0GitHub 10.4k
A
llm-patterns

por alinaqi

O llm-patterns ajuda você a desenhar a lógica de aplicativos AI-first, em que os LLMs cuidam do raciocínio, da extração e da geração, enquanto o código fica com validação, roteamento e tratamento de erros. Use a skill llm-patterns para uma estrutura de prompt mais clara, fluxos de trabalho de LLM testáveis e orientação prática para criação de Skills.

Skill Authoring
Favoritos 0GitHub 607
M
detecting-ai-model-prompt-injection-attacks

por mukul975

detecting-ai-model-prompt-injection-attacks é uma skill de cibersegurança para filtrar texto não confiável antes que ele chegue a um LLM. Ela usa regex em camadas, pontuação heurística e classificação baseada em DeBERTa para sinalizar ataques diretos e indiretos de prompt injection. É útil para validação de entrada em chatbots, ingestão de documentos e Threat Modeling.

Threat Modeling
Favoritos 0GitHub 0
Llm