prompt-engineering-patterns
von wshobsonprompt-engineering-patterns ist eine praxisnahe Skill für produktionsreifes Prompt-Design. Behandelt werden Installationskontext, wiederverwendbare Vorlagen, Few-Shot-Beispiele, strukturierte Ausgaben und Workflows zur Prompt-Optimierung für Context Engineering.
Diese Skill erreicht 82/100 und ist damit ein überzeugender Kandidat für das Verzeichnis: Agents erhalten klare Einsatzsignale, substanziellen operativen Inhalt und wiederverwendbare Prompt-Assets, die mehr praktische Hebelwirkung bieten als ein generischer Prompt. Wer sie einsetzt, sollte jedoch damit rechnen, Techniken zu kombinieren, statt einem klar definierten End-to-End-Workflow zu folgen.
- Starke Auslösbarkeit: SKILL.md beschreibt ausdrücklich, wann die Skill für Prompt-Optimierung, Few-Shot-Design, System Prompts, strukturierte Outputs und das Debugging inkonsistenten LLM-Verhaltens eingesetzt werden sollte.
- Hoher praktischer Nutzen: Das Repository enthält wiederverwendbare Assets und Referenzen wie eine Prompt-Template-Bibliothek, Few-Shot-Beispiel-JSON und ein `optimize-prompt.py`-Skript.
- Gute progressive Vertiefung: Die zentrale Skill führt in die wichtigsten Muster ein, danach gehen die Referenzdokumente mit Beispielen auf konkrete Techniken wie CoT, Few-Shot-Auswahl, Prompt-Templates, Optimierung und System-Prompt-Design ein.
- Der breite Umfang kann den Interpretationsaufwand erhöhen: Es werden viele Themen des Prompt Engineering abgedeckt, doch die Hinweise sprechen eher für eine Musterbibliothek bzw. Referenzsammlung als für einen einzelnen, strikt vorgegebenen Ausführungsablauf.
- Einige Beispiele sind eher konzeptionell und code-orientiert, statt klar in einen installierbaren Agent-Workflow integriert zu sein; außerdem zeigt SKILL.md keinen Installationsbefehl.
Überblick über die prompt-engineering-patterns-Skill
Die Skill prompt-engineering-patterns ist ein praxisnaher Leitfaden für Prompt-Design, mit dem sich zuverlässigere LLM-Workflows aufbauen lassen – nicht bloß eine Sammlung allgemeiner Prompting-Tipps. Sie eignet sich besonders für alle, die produktive Prompts, strukturierte Extraktions-Workflows, wiederverwendbare Prompt-Templates oder Evaluationsschleifen entwickeln, bei denen Ausgabe-Konsistenz wichtiger ist als einmalige Kreativität.
Für wen diese Skill gedacht ist
Nutze prompt-engineering-patterns, wenn du:
- Prompts für Apps, Agents oder interne Automatisierung entwirfst
- Ausgabe-Drift, Formatierungsfehler oder schwaches Reasoning reduzieren willst
- zwischen Few-Shot-Beispielen, Chain-of-Thought, System Prompts und strukturierten Outputs abwägst
- ad-hoc formulierte Prompts in wiederholbar nutzbare Templates überführen willst, die dein Team pflegen kann
Wenn du nur einen schnellen Prompt für einen einmaligen Einsatz brauchst, ist diese Skill möglicherweise mehr, als du benötigst.
Welche Aufgabe dir die Skill tatsächlich abnimmt
Die eigentliche Aufgabe besteht darin, vom Zustand „das Modell funktioniert manchmal“ zu „das Modell verhält sich meist berechenbar genug für den produktiven Einsatz“ zu kommen. Das Repository leistet das, indem es Prompt-Patterns rund um konkrete Anwendungsfälle organisiert: Few-Shot-Learning, Chain-of-Thought-Prompting, JSON-artige strukturierte Outputs, wiederverwendbare Templates, System-Prompt-Design und Workflows zur Prompt-Optimierung.
Was sie von gewöhnlichen Prompting-Tipps unterscheidet
Der wichtigste Unterschied ist, dass prompt-engineering-patterns wie ein Umsetzungs-Playbook aufgebaut ist. Enthalten sind:
- Referenzdokumente für zentrale Prompting-Patterns
- Beispiel-Assets, die du sofort anpassen kannst
- eine Prompt-Template-Bibliothek nach Aufgabentyp
- ein Python-Optimierungsskript für iterative Verfeinerung
Dadurch ist die Skill für Installationsentscheidungen nützlicher als Angebote, die nur Konzepte beschreiben, aber keine wiederverwendbaren Artefakte mitliefern.
Was du vor der Einführung prüfen solltest
Diese Skill ist am stärksten, wenn du Aufgabe, Ausgabeformat und Erfolgskriterien bereits kennst. Als Brainstorming-Hilfe im Sinne von „sag mir erst einmal, was ich bauen soll“ ist sie weniger geeignet. Frage dich vor der Installation:
- Brauchst du vorhersagbare Formate oder messbare Verbesserungen?
- Hast du Beispiel-Inputs und erwartete Outputs?
- Bist du bereit, Prompts gegen ein kleines Evaluationsset zu testen?
Wenn ja, ist prompt-engineering-patterns for Context Engineering eine gute Wahl, weil es dir hilft, Kontext, Beispiele, Constraints und Output-Verträge sauber zu formalisieren.
So verwendest du die prompt-engineering-patterns-Skill
Installationskontext für prompt-engineering-patterns
Diese Skill liegt in wshobson/agents unter plugins/llm-application-dev/skills/prompt-engineering-patterns.
Installation mit:
npx skills add https://github.com/wshobson/agents --skill prompt-engineering-patterns
Da das vorgelagerte SKILL.md keinen Installationsbefehl enthält, sollten Verzeichnisnutzer den obigen Befehl als praktischen prompt-engineering-patterns install-Pfad verstehen.
Lies diese Dateien zuerst
Starte mit den signalstärksten Dateien in dieser Reihenfolge:
SKILL.mdassets/prompt-template-library.mdassets/few-shot-examples.jsonreferences/prompt-optimization.mdreferences/system-prompts.md
Lies die tieferen Referenzen danach nur für das Pattern, das du tatsächlich brauchst:
references/few-shot-learning.mdreferences/chain-of-thought.mdreferences/prompt-templates.md
Diese Lesereihenfolge spart Zeit, weil die Assets direkt zeigen, was du sofort wiederverwenden kannst, während die Referenzen erklären, warum diese Patterns funktionieren.
Welche Eingaben die Skill von dir braucht
prompt-engineering-patterns usage wird deutlich besser, wenn du konkrete Aufgabeninputs mitbringst. Mindestens solltest du angeben:
- die exakte Aufgabe
- Zielgruppe oder operative Rolle
- gewünschtes Ausgabeformat
- harte Constraints
- 3 bis 10 repräsentative Beispiele oder Testfälle
- bekannte Fehlermuster
Schwacher Input:
- „Improve this prompt.“
Starker Input:
- „I need a support-ticket classifier. Labels are
billing,technical_issue,account_access, andother. Output must be valid JSON withlabelandconfidence. Common failures: mixing labels, adding prose, and mishandling multi-intent tickets.”
Die zweite Version gibt der Skill genug Kontext, um das passende Pattern zu empfehlen, statt nur generische Umschreibungen zu liefern.
Wähle das richtige Pattern für die Aufgabe
Setze die Repository-Patterns gezielt ein:
- Nutze Few-Shot-Beispiele, wenn das Verhalten der Aufgabe von Format, Stil oder Grenzfällen abhängt.
- Nutze Chain-of-Thought für mehrstufiges Reasoning, Logik oder stark rechenlastige Aufgaben.
- Nutze strukturierte Outputs, wenn nachgelagerte Systeme das Ergebnis parsen müssen.
- Nutze System Prompts, wenn du eine stabile Rolle, Tonalität, Sicherheitsgrenzen oder Verhaltensgrenzen brauchst.
- Nutze Template-Systeme, wenn derselbe Prompt wiederholt mit wechselnden Variablen befüllt wird.
Ein häufiger Fehler ist, alle Patterns gleichzeitig zu stapeln. Starte mit dem kleinsten Pattern, das genau den Fehler behebt, den du tatsächlich hast.
Forme aus einem groben Ziel ein brauchbares Prompt-Briefing
Bevor du die Skill aufrufst, zerlege dein Ziel in fünf Teile:
Task: was das Modell tun sollContext: Hintergrund oder DomänenannahmenConstraints: was es vermeiden oder immer enthalten mussOutput contract: exaktes FormatExamples: repräsentative Inputs und ideale Outputs
Beispiel-Briefing:
Task: Extract entities from customer complaint emails.
Context: Emails may mention products, stores, dates, refund amounts, and staff names.
Constraints: Do not infer missing fields. Return empty arrays instead of null.
Output contract: Valid JSON with keys persons, products, locations, dates, monetary_values.
Examples: Include at least one email with no monetary value and one with multiple products.
Genau dieses Maß an Spezifität macht die prompt-engineering-patterns skill deutlich wertvoller als eine generische Anfrage wie „write me a prompt“.
Nutze die Template-Bibliothek als Ausgangspunkt, nicht als Endpunkt
assets/prompt-template-library.md ist am nützlichsten, wenn du es als Gerüst verstehst. Kopiere ein passendes Template und ergänze dann:
- dein echtes Schema
- aufgabenspezifische Constraints
- Behandlung von Edge Cases
- Ablehnungsverhalten bei fehlenden Informationen
Extraktions-Templates werden zum Beispiel deutlich besser, wenn du explizit festlegst, ob das Modell unbekannte Felder weglassen, leere Werte zurückgeben oder Quelltextspannen zitieren soll.
Setze Few-Shot-Beispiele mit klarer Absicht ein
Das Repo enthält assets/few-shot-examples.json. Der Wert liegt dabei weniger in den konkreten Beispielen als in der Art, wie diese Beispiele aufgebaut sind. Gute Few-Shot-Sets sollten:
- deine reale Input-Verteilung widerspiegeln
- Edge Cases abdecken, nicht nur offensichtliche Positivfälle
- Label-Definitionen konsistent halten
- verrauschte oder widersprüchliche Beispiele vermeiden
Wenn deine Aufgabe an Grenzfällen scheitert, ergänze zuerst Beispiele für genau diese Grenzen. Das bringt in der Regel mehr als einfach nur mehr durchschnittliche Beispiele hinzuzufügen.
Nutze Chain-of-Thought in der Produktion mit Bedacht
Die Datei references/chain-of-thought.md ist für Reasoning-Aufgaben hilfreich, aber nicht jedes Produktionssystem sollte vollständige Reasoning-Traces nach außen geben. In der Praxis gilt:
- nutze explizite Reasoning-Prompts für interne Analyse und Debugging
- nutze knappe Antwortformate für nutzerseitige Ausgaben
- teste, ob Chain-of-Thought die Genauigkeit stark genug verbessert, um zusätzliche Tokens und höhere Latenz zu rechtfertigen
Für viele Teams ist das beste Produktionsmuster internes verborgenes Reasoning plus ein strikt vorgegebenes Endformat.
Nutze das Optimierungsskript als Signal für den Workflow
Die Datei scripts/optimize-prompt.py und references/prompt-optimization.md zeigen den beabsichtigten Workflow: Baseline festlegen, gegen eine Test-Suite prüfen, Fehler analysieren, verfeinern und wiederholen.
Auch wenn du nicht exakt dieses Skript verwendest, solltest du den Prozess übernehmen:
- einen Baseline-Prompt definieren
- ein kleines Testset aufbauen
- Formatgültigkeit und Aufgabenqualität messen
- Fehlercluster untersuchen
- jeweils nur eine Variable überarbeiten
Das ist der größte praktische Mehrwert des Repos: Es lenkt dich zu messbarer Prompt-Verbesserung statt zu endlosem subjektivem Feintuning.
Bester Workflow für Context Engineering
prompt-engineering-patterns for Context Engineering funktioniert am besten, wenn Kontext kuratiert statt einfach hineinkopiert wird. Ein starker Workflow sieht so aus:
- Aufgabe und Output-Vertrag definieren
- nur den Kontext hinzufügen, der für diese Aufgabe wirklich nötig ist
- Beispiele einbauen, die genau das gewünschte Verhalten vermitteln
- stabile Anweisungen von dynamischem User-Input trennen
- mit realistischen Fällen evaluieren
- Kontext kürzen, der das Ergebnis nicht verändert
Das ist wichtig, weil lange Prompts oft nicht an zu wenig Kontext scheitern, sondern an schlecht organisiertem Kontext.
prompt-engineering-patterns-Skill FAQ
Ist prompt-engineering-patterns gut für Einsteiger?
Ja, sofern du bereits eine konkrete Aufgabe hast. Die Beispiele und Referenzen sind gut zugänglich, und die Aufschlüsselung nach Patterns hilft Einsteigern dabei, nicht länger zu raten. Weniger geeignet ist die Skill für absolute Anfänger, die noch nie Schemata, Labels oder Evaluationskriterien definiert haben.
Worin unterscheidet sich das davon, einfach nur einen besseren Prompt zu schreiben?
Gewöhnliche Prompting-Tipps enden meist bei besseren Formulierungen. Das Material im prompt-engineering-patterns guide geht weiter: Es zeigt Pattern-Auswahl, wiederverwendbare Templates, Beispiel-Design und iterative Optimierung. Dadurch eignet es sich besser für wiederholbare Systeme und nicht nur für einzelne Chats.
Wann sollte ich prompt-engineering-patterns nicht verwenden?
Überspringe die Skill, wenn:
- du eher offene Ideenfindung als Kontrolle brauchst
- sich deine Aufgabe jedes Mal ändert und keine wiederverwendbare Struktur hat
- du das gewünschte Ausgabeformat noch nicht kennst
- du nicht bereit bist, Prompts gegen Beispiele zu testen
In solchen Fällen ist ein einfacherer explorativer Prompting-Workflow oft schneller.
Unterstützt es strukturierte Outputs gut?
Ja. Das Repository verweist wiederholt auf JSON-ähnliche Extraktion und eingeschränkte Formatierung. Besonders relevant ist das, wenn dein nachgelagerter Code parsebare Antworten braucht und deine aktuellen Prompts oft zusätzliche Prosa zurückgeben.
Ist prompt-engineering-patterns an einen bestimmten Modellanbieter gebunden?
Es gibt keine klaren Hinweise auf Vendor Lock-in. Die Patterns sind über die meisten modernen LLMs hinweg portabel, auch wenn das konkrete Verhalten je nach Modell variiert. Token-Kosten, Formatzuverlässigkeit und Reasoning-Qualität solltest du bei deinem gewählten Anbieter dennoch validieren.
So verbesserst du die prompt-engineering-patterns-Skill
Gib der prompt-engineering-patterns-Skill eine präzisere Problemformulierung
Der schnellste Weg, Ergebnisse mit prompt-engineering-patterns zu verbessern, ist, nicht mehr abstrakt nach „better prompts“ zu fragen. Liefere stattdessen:
- Erfolgskriterien
- inakzeptable Outputs
- ein Zielschema
- repräsentative Fehlfälle
So kann die Skill das richtige Pattern empfehlen und Prompts erzeugen, die im realen Einsatz bestehen.
Ergänze Evaluationsfälle, bevor du Prompts umschreibst
Viele Nutzer schreiben Prompts zu früh um. Sammle stattdessen zuerst 10 bis 20 Beispiele, darunter:
- einfache Fälle
- verwirrende Beinahe-Treffer
- fehlerhaft formatierte Inputs
- Fälle, die aktuell scheitern
Nutze diese Beispiele anschließend, um verschiedene Prompt-Versionen zu vergleichen. Das Optimierungsmaterial im Repository unterstützt diesen testgetriebenen Ansatz sehr deutlich.
Trenne stabile Instruktionen von variablem Kontext
Ein häufiger Fehler ist, Rolle, Aufgabenregeln, Beispiele und Nutzerdaten in einen einzigen Block zu mischen. Bessere Qualität erreichst du, wenn du Folgendes trennst:
- Systemverhalten
- wiederverwendbare Aufgabeninstruktionen
- Few-Shot-Demonstrationen
- aktuellen Input
Diese Struktur macht Prompts leichter debugbar und reduziert unbeabsichtigte Instruction Drift.
Stärke Beispiele, statt nur mehr Beispiele hinzuzufügen
Mehr Few-Shot-Daten sind nicht automatisch besser. Ersetze schwache Beispiele, die redundant oder unrealistisch sind, durch Beispiele, die Folgendes abdecken:
- Edge Cases
- mehrdeutige Inputs
- exakte Ausgabeformatierung
- häufige Modellfehler
Hochwertigere Demonstrationen verbessern Ergebnisse meist stärker als einfach größere Demonstrationssätze.
Ziehe Output-Verträge enger
Wenn Outputs inkonsistent sind, liegt das Problem oft an zu ungenauer Formatbeschreibung. Verbessere den Prompt, indem du Folgendes definierst:
- erforderliche Keys
- erlaubte Labels
- Ordnungsregeln
- Verhalten bei fehlenden Informationen
Für Extraktionsaufgaben ist „return empty arrays for missing categories“ deutlich besser als „extract entities in JSON“.
Behebe pro Iteration nur einen Fehlermodus
Ändere nicht gleichzeitig Rolle, Schema, Beispiele, Reasoning-Stil und Temperature-Annahmen. Ändere eine Hauptvariable, teste erneut und protokolliere den Effekt. Das entspricht der Logik iterativer Verfeinerung im Repo und macht Verbesserungen belastbarer.
Achte auf Overengineering
Die prompt-engineering-patterns skill ist leistungsfähig, wird aber oft übertrieben eingesetzt. Warnsignale sind:
- sehr lange Prompts mit wiederholten Instruktionen
- zu viele Beispiele für einfache Aufgaben
- Chain-of-Thought bei Aufgaben, die nur Extraktion brauchen
- übermäßiges Templating, bevor die Aufgabe stabil ist
Wenn ein einfacherer Prompt dieselbe Zuverlässigkeit erreicht, nimm die einfachere Variante.
Nutze das Repository als Pattern-Katalog, nicht als Skript zum Kopieren
Am meisten holst du aus prompt-engineering-patterns heraus, wenn du Assets und Referenzen auf deine eigenen Fehlermuster anpasst. Lies das Repo, um ein Pattern auszuwählen, übernimm ein Template und teste es dann gegen deine Daten. Das ist wesentlich wirksamer, als Beispiele wortwörtlich zu kopieren und zu hoffen, dass sie sich verallgemeinern lassen.
