Llm

Llm taxonomy generated by the site skill importer.

25 Skills
A
regex-vs-llm-structured-text

von affaan-m

regex-vs-llm-structured-text Skill zur Auswahl von Regex oder LLM bei der Extraktion strukturierter Texte. Starte mit deterministischem Parsen, ergänze LLM-Validierung für grenzwertige Unsicherheitsfälle und nutze eine günstigere, zuverlässigere Pipeline für Dokumente, Formulare, Rechnungen und Datenanalysen.

Data Analysis
Favoriten 0GitHub 156.2k
A
llm-trading-agent-security

von affaan-m

llm-trading-agent-security ist ein praxisnaher Leitfaden zur Absicherung autonomer Trading-Agenten mit Wallet-Befugnissen. Er behandelt Prompt Injection, Ausgabelimits, Simulation vor dem Senden, Circuit Breaker, MEV-bewusste Ausführung und die Isolierung von Schlüsseln, um das Risiko finanzieller Verluste in einem Security Audit zu senken.

Security Audit
Favoriten 0GitHub 156.2k
A
foundation-models-on-device

von affaan-m

foundation-models-on-device hilft dir dabei, Apple-FoundationModels-Funktionen auf iOS 26+ umzusetzen – mit Textgenerierung direkt auf dem Gerät, geführter Ausgabe mit @Generable, Tool-Calling, Snapshot-Streaming und Verfügbarkeitsprüfungen für datenschutzorientierte Apps.

Backend Development
Favoriten 0GitHub 156.1k
A
cost-aware-llm-pipeline

von affaan-m

cost-aware-llm-pipeline hilft dir, LLM-Workflows zu bauen, die API-Kosten mit Model Routing, unveränderlicher Kostenverfolgung, Retry-Handling und Prompt Caching im Griff behalten. Ideal für Batch-Jobs, Dokumenten-Pipelines und Workflow Automation, wenn Volumen und Qualitätskompromisse klare Regeln brauchen.

Workflow Automation
Favoriten 0GitHub 156.1k
S
fact-checker

von Shubhamsaboo

fact-checker ist ein promptgesteuerter Skill für strukturierte Faktenprüfung, Quellenbewertung und klare Urteile mit Vertrauensgrad und Kontext. Installiere ihn aus Shubhamsaboo/awesome-llm-apps, um Aussagen, Gerüchte, Statistiken und irreführende Behauptungen mit einem wiederholbaren Workflow zu prüfen.

Fact Checking
Favoriten 0GitHub 104.2k
S
deep-research

von Shubhamsaboo

deep-research ist ein leichtgewichtiger Agent-Skill für strukturierte Webrecherche. Er hilft dabei, den Umfang zu klären, mehrere Quellen zusammenzutragen, ihre Glaubwürdigkeit zu bewerten und belegte Erkenntnisse aus einem einzigen `SKILL.md`-Workflow zu verdichten.

Web Research
Favoriten 0GitHub 104.2k
G
cso

von garrytan

cso ist ein Security-Audit-Skill im Stil eines Chief Security Officer für Agents. Er hilft dabei, Codebasen und Workflows auf Secret-Leaks, Abhängigkeits- und Supply-Chain-Risiken, CI/CD-Sicherheit sowie LLM-/KI-Sicherheit zu prüfen – mit OWASP Top 10 und STRIDE als Grundlage. Verwende cso für strukturierte Security-Audit-Reviews mit Confidence Gates, aktiver Verifikation und Trend-Tracking.

Security Audit
Favoriten 0GitHub 91.8k
W
evaluation-methodology

von wshobson

Die evaluation-methodology Skill erklärt das PluginEval-Scoring für Model Evaluation, einschließlich Ebenen, Rubriken, zusammengesetzter Bewertung, Badge-Schwellen und praxisnaher Hinweise zur Interpretation von Ergebnissen und zur Verbesserung schwacher Dimensionen.

Model Evaluation
Favoriten 0GitHub 32.6k
W
prompt-engineering-patterns

von wshobson

prompt-engineering-patterns ist eine praxisnahe Skill für produktionsreifes Prompt-Design. Behandelt werden Installationskontext, wiederverwendbare Vorlagen, Few-Shot-Beispiele, strukturierte Ausgaben und Workflows zur Prompt-Optimierung für Context Engineering.

Context Engineering
Favoriten 0GitHub 32.6k
W
rag-implementation

von wshobson

rag-implementation ist eine praxisnahe Skill für die Planung von RAG-Systemen mit Vektordatenbanken, Embeddings, Retrieval-Mustern und Workflows für fundierte Antworten. Nutzen Sie sie, um Stack-Optionen zu vergleichen, Architekturentscheidungen auszuarbeiten sowie Installation und Einsatz für Dokumenten-Q&A, Wissensassistenten und semantische Suche zu steuern.

RAG Workflows
Favoriten 0GitHub 32.6k
W
similarity-search-patterns

von wshobson

similarity-search-patterns unterstützt Sie bei der Wahl von Distanzmetriken, Indextypen und hybriden Retrieval-Mustern für semantische Suche und RAG-Workflows. Nutzen Sie den Skill, um Trade-offs in produktiven Vektorsuchen bei Recall, Latenz und Skalierung fundiert zu planen.

RAG Workflows
Favoriten 0GitHub 32.6k
W
hybrid-search-implementation

von wshobson

Die Skill hybrid-search-implementation zeigt, wie sich Vektor- und Keyword-Retrieval mit RRF, linearer Fusion, Reranking und Cascade-Mustern für RAG- und Suchsysteme kombinieren lassen.

RAG Workflows
Favoriten 0GitHub 32.6k
W
langchain-architecture

von wshobson

langchain-architecture ist ein Leitfaden für den Entwurf von Anwendungen mit LangChain 1.x und LangGraph. Er hilft dabei, schon vor der Implementierung zwischen Chains, Agents, Retrieval, Memory und zustandsbehafteten Orchestrierungsmustern zu wählen.

Agent Orchestration
Favoriten 0GitHub 32.6k
W
llm-evaluation

von wshobson

Mit dem Skill llm-evaluation erstellen Sie wiederholbare Evaluationspläne für LLM-Apps, Prompts, RAG-Systeme und Modelländerungen – mit Metriken, menschlicher Bewertung, Benchmarking und Regressionsprüfungen.

Model Evaluation
Favoriten 0GitHub 32.6k
W
embedding-strategies

von wshobson

embedding-strategies hilft bei der Auswahl und Optimierung von Embedding-Modellen für semantische Suche und RAG-Workflows – mit praxisnaher Anleitung zu Chunking, Modellabwägungen, mehrsprachigen Inhalten und der Bewertung der Retrieval-Qualität.

RAG Workflows
Favoriten 0GitHub 32.6k
G
ai-prompt-engineering-safety-review

von github

ai-prompt-engineering-safety-review ist eine Skill zur Prompt-Prüfung, mit der LLM-Prompts vor dem Produktiveinsatz, vor Evaluationen oder vor kundennahen Anwendungen auf Sicherheit, Bias, Sicherheitslücken und Ausgabequalität überprüft werden.

Model Evaluation
Favoriten 0GitHub 27.8k
G
agentic-eval

von github

agentic-eval ist eine GitHub Copilot Skill, die zeigt, wie sich Evaluierungsschleifen für KI-Ausgaben mit Reflection, rubric-basierter Bewertung und Evaluator-Optimizer-Mustern aufbauen lassen.

Model Evaluation
Favoriten 0GitHub 27.8k
V
develop-ai-functions-example

von vercel

develop-ai-functions-example unterstützt dich dabei, lauffähige AI SDK-Beispiele in `vercel/ai` unter `examples/ai-functions/src/` zu erstellen oder anzupassen. Damit wählst du die passende Kategorie, hältst Repo-Konventionen ein und baust schlanke Beispiele für Providervalidierung, Demos oder Fixtures.

Skill Examples
Favoriten 0GitHub 23.1k
H
huggingface-papers

von huggingface

huggingface-papers hilft dir, Hugging Face Paper-Seiten in Markdown zu lesen und strukturierte Metadaten aus der Papers API zu extrahieren, darunter Autor:innen, verknüpfte Modelle, Datensätze, Spaces, GitHub-Repos und Projektseiten. Verwende es für Hugging-Face-Paper-URLs, arXiv-URLs oder -IDs sowie für Academic-Research-Workflows, die Belege aus der Paper-Seite benötigen.

Academic Research
Favoriten 0GitHub 10.4k
H
huggingface-llm-trainer

von huggingface

huggingface-llm-trainer hilft dir, Sprach- und Vision-Modelle auf Hugging Face Jobs mit TRL oder Unsloth zu trainieren oder feinzujustieren. Nutze diese huggingface-llm-trainer Skill für SFT, DPO, GRPO, Reward Modeling, Dataset-Checks, GPU-Auswahl, Speichern auf dem Hub, Trackio-Monitoring und GGUF-Export in Backend-Entwicklungs-Workflows.

Backend Development
Favoriten 0GitHub 10.4k
H
huggingface-local-models

von huggingface

huggingface-local-models hilft dir dabei, Hugging Face-Modelle zu finden, die sich lokal mit llama.cpp und GGUF ausführen lassen, eine praxistaugliche Quantisierung zu wählen und sie auf CPU, Apple Metal, CUDA oder ROCm zu starten. Der Leitfaden deckt Modellentdeckung, die exakte Suche nach GGUF-Dateien, Server- vs. CLI-Setup und einen schnellen Pfad für Backend-Entwicklung und private lokale Inferenz ab.

Backend Development
Favoriten 0GitHub 10.4k
H
huggingface-community-evals

von huggingface

huggingface-community-evals hilft dir, Modelle aus dem Hugging Face Hub lokal mit inspect-ai oder lighteval zu evaluieren. Nutze es für die Auswahl des Backends, Smoke Tests und einen praxisnahen Einstieg in vLLM, Transformers oder accelerate. Nicht gedacht für HF Jobs-Orchestrierung, model-card-PRs, das Veröffentlichen von .eval_results oder community-evals-Automatisierung.

Model Evaluation
Favoriten 0GitHub 10.4k
A
llm-patterns

von alinaqi

llm-patterns hilft dir, AI-first-Anwendungslogik zu entwerfen, bei der LLMs das Denken, Extrahieren und Generieren übernehmen, während Code für Validierung, Routing und Fehlerbehandlung zuständig ist. Nutze das llm-patterns Skill für eine klarere Prompt-Struktur, testbare LLM-Workflows und praxisnahe Hinweise zum Skill Authoring.

Skill Authoring
Favoriten 0GitHub 607
M
detecting-ai-model-prompt-injection-attacks

von mukul975

detecting-ai-model-prompt-injection-attacks ist eine Cybersecurity-Skill zum Prüfen untrusted Texts, bevor er ein LLM erreicht. Sie nutzt gestaffelte Regex-Prüfungen, heuristische Bewertung und DeBERTa-basierte Klassifikation, um direkte und indirekte Prompt-Injection-Angriffe zu erkennen. Nützlich für die Eingabevalidierung von Chatbots, die Dokumentenaufnahme und Threat Modeling.

Threat Modeling
Favoriten 0GitHub 0
Llm