A

content-quality-auditor

von aaron-he-zhu

content-quality-auditor ist ein Skill zur Bewertung der Veröffentlichungsreife von SEO-Content, Landingpages und Longform-Entwürfen. Er führt ein CORE-EEAT-Audit mit 80 Prüfpunkten, gewichteter Bewertung, Veto-Checks und einem priorisierten Maßnahmenplan aus, damit Redaktionsteams fundiert einschätzen können, ob Inhalte bereit für die Veröffentlichung sind.

Stars0
Favoriten0
Kommentare0
Hinzugefügt31. März 2026
KategorieSEO Content
Installationsbefehl
npx skills add aaron-he-zhu/seo-geo-claude-skills --skill content-quality-auditor
Kurationswert

Dieser Skill erreicht 78/100 und ist damit ein überzeugender Kandidat für das Verzeichnis: Agents erhalten starke Trigger-Signale und ein substanzielles, wiederverwendbares Audit-Framework, und Nutzer können auf Basis des Repositories eine belastbare Installationsentscheidung treffen. Die Ausführung hängt jedoch weiterhin davon ab, eine lange Spezifikation auf Prompt-Basis zu lesen, statt auf bereits paketierte Tools zurückzugreifen.

78/100
Stärken
  • Das Frontmatter bietet viele explizite mehrsprachige Trigger sowie einen klar umrissenen Anwendungsfall: die Bewertung der Veröffentlichungsreife mit einem CORE-EEAT-Audit mit 80 Prüfpunkten, gewichteter Bewertung, Veto-Checks und Maßnahmenplanung.
  • Die Repository-Inhalte zeigen einen tatsächlich ausgearbeiteten Workflow statt eines Platzhalters: ein umfangreiches SKILL.md mit mehreren Signalen zu Ablauf, Einschränkungen und praktischer Nutzung sowie eine ergänzende Referenzdatei zu allen 80 Audit-Punkten.
  • Allowed-tools und Kompatibilität sind klar ausgewiesen; es werden keine Systempakete vorausgesetzt, und der Tool-Bedarf ist gezielt auf WebFetch begrenzt. Das hilft Agents und Installierenden, den operativen Umfang schnell zu verstehen.
Hinweise
  • Der Skill wirkt ausschließlich dokumentationsgetrieben: Es gibt keine Skripte, Regeln, Metadaten-Helfer oder einen Installationsbefehl. Agents müssen sich daher auf eine lange manuelle Spezifikation stützen, was zu stärkerer Varianz in der Umsetzung führen kann.
  • Es ist nur eine unterstützende Referenzdatei vorhanden, und Teile der Benchmark-Details sind in eine weitere verlinkte Datei ausgelagert. Das verringert die schrittweise Erschließung und macht die schnelle Einführung etwas schwieriger.
Überblick

Überblick über den content-quality-auditor Skill

Was content-quality-auditor tatsächlich leistet

Der content-quality-auditor Skill ist ein Publish-Readiness-Checker für Longform-Content, Landingpages und SEO-Artikel. Statt nur ein vages „sieht gut aus“ zu liefern, führt er ein strukturiertes CORE-EEAT-Audit über 80 Prüfpunkte aus, wendet gewichtete Bewertungen an, markiert Veto-Probleme und erstellt einen konkreten Maßnahmenplan. Für Teams, die Inhalte in größerem Umfang veröffentlichen, liegt genau darin der eigentliche Mehrwert: ein wiederholbares Quality Gate, bevor Content live geht.

Für wen sich dieser Skill eignet

Dieser Skill passt am besten für SEO-Content-Leads, Redakteur:innen, Agency-Reviewer und Autor:innen, die einen konsistenten Qualitätsmaßstab brauchen. Besonders nützlich ist er, wenn bereits Entwürfe vorliegen und Fragen beantwortet werden sollen wie: „Ist das bereit zur Veröffentlichung?“, „Was drückt den Score nach unten?“ oder „Was sollte ich zuerst verbessern?“

Der beste Einsatzfall

Setze content-quality-auditor ein, wenn die Hauptaufgabe Bewertung ist, nicht Ideation. Der Skill ist dafür gebaut, bestehenden Content auf Qualität, Nutzen, Struktur, Belege und E-E-A-T-nahe Signale zu bewerten und zu diagnostizieren. Wenn dein Problem lautet „Schreib mir einen Artikel von Grund auf“, ist das nicht der erste Skill, zu dem du greifen solltest.

Was ihn von einem normalen Prompt unterscheidet

Ein generischer Prompt liefert meist breites redaktionelles Feedback. Der content-quality-auditor skill ist deutlich operativer:

  • er nutzt ein definiertes Audit-Modell mit vielen Einzelkriterien
  • er trennt zwischen Score, blockierenden Problemen und konkreter Nachbesserung
  • er ermöglicht eine schärfere Publish- / Not-yet-publish-Entscheidung
  • er enthält eine Referenzdatei für die Prüfpunkte, was Spekulationen reduziert

Diese Struktur ist besonders dann wichtig, wenn mehrere Personen Content nach denselben Maßstäben prüfen müssen.

Zentrale Überlegungen vor der Einführung

Die wichtigste Frage bei der Einführung ist nicht die Installationskomplexität, sondern die Qualität der Inputs. Dieser Skill ist nur so gut wie der Entwurf, die Suchanfrage, die Zielgruppe und der Business-Kontext, die du mitgibst. Wenn du nur einen nackten Artikel ohne Ziel-Keyword, beabsichtigte Leserschaft oder gewünschtes Ergebnis einfügst, läuft das Audit zwar trotzdem, aber die Empfehlungen werden weniger spezifisch und weniger umsetzbar.

So verwendest du den content-quality-auditor Skill

Installationskontext und Kompatibilität

Die Repository-Metadaten zeigen eine breite Kompatibilität im Skill-Ökosystem, darunter Claude Code ≥1.0, skills.sh marketplace, ClawHub und das Vercel Labs skills ecosystem. Der Skill benötigt keine Systempakete. In der Liste der erlaubten Tools steht WebFetch, und optionaler MCP-Netzwerkzugriff kann helfen, wenn dein übergreifender Workflow Audits mit externen SEO-Daten anreichert.

Wenn du direkt aus dem Repository installierst, ist das übliche Muster:

npx skills add aaron-he-zhu/seo-geo-claude-skills --skill content-quality-auditor

Falls deine Umgebung einen anderen Skill-Loader nutzt, verwende den Repository-Pfad cross-cutting/content-quality-auditor.

Diese Dateien solltest du zuerst lesen

Um zu verstehen, wie sich content-quality-auditor install und die tatsächliche Nutzung in der Praxis anfühlen, beginne mit:

  • cross-cutting/content-quality-auditor/SKILL.md
  • cross-cutting/content-quality-auditor/references/item-reference.md

SKILL.md erklärt, wann der Skill auslösen sollte und welche Entscheidung das Audit überhaupt treffen soll. references/item-reference.md ist die wertvollere Begleitdatei, weil sie die Namen aller 80 Prüfpunkte offenlegt. Das hilft dabei, Scores richtig zu interpretieren und Prompts gezielter zu verbessern.

Welche Eingaben der Skill braucht

Für die besten Ergebnisse solltest du dem Skill mehr geben als nur den Artikeltext. Ein starkes Input-Paket umfasst in der Regel:

  • den vollständigen Entwurf
  • die Ziel-Query oder ein Keyword-Set
  • den Seitentyp: Blogpost, Comparison Page, Service Page, Affiliate Page, Guide
  • Zielgruppe und Suchintention
  • das Business-Ziel: rank, convert, educate, support
  • bekannte Einschränkungen: Legal Review, Brand Tone, keine Originalforschung, keine First-Hand Experience
  • optional Wettbewerber oder Benchmark-URLs

So kann content-quality-auditor usage von allgemeiner Kritik zu echter Entscheidungsunterstützung vor der Veröffentlichung wechseln.

Aus einer groben Anfrage einen starken Prompt machen

Schwacher Prompt:

  • „Bewerte meinen Artikel.“

Stärkerer Prompt:

  • „Run the content-quality-auditor skill on this draft for the keyword ‘best payroll software for small business’. Audience is US small business owners comparing tools. Goal is publish-readiness for SEO and trust. Please give me the overall score, any veto issues, top 10 gaps by impact, and a prioritized fix plan.”

Warum das funktioniert:

  • die Query ist klar definiert
  • die Leserschaft ist definiert
  • das Ziel der Seite ist definiert
  • angefragt wird entscheidungsorientierter Output statt bloßer Kommentare

Beispiel-Prompt für die SEO-Content-Prüfung mit content-quality-auditor

Verwende ein Format wie dieses:

  • „Use content-quality-auditor for SEO Content on the draft below.
  • Primary keyword: project management software for agencies
  • Search intent: commercial investigation
  • Audience: agency founders with 5–50 employees
  • Must-have outcome: clear recommendation and comparison depth
  • Constraints: no fabricated experience, no unsupported stats
  • Output needed: weighted score, veto checks, section-by-section weaknesses, and the 5 highest-leverage edits before publish.”

Das verbessert die Relevanz der Bewertung, weil der Skill Abdeckung, Intent-Fit und Anforderungen an Belege deutlich präziser beurteilen kann.

Empfohlener Workflow für Redakteur:innen

Ein praxistauglicher Workflow sieht so aus:

  1. content-quality-auditor auf den aktuellen Entwurf anwenden.
  2. Zuerst die Veto-Probleme prüfen.
  3. Schwache Punkte in Content-, Struktur-, Beleg- und Trust-Fixes clustern.
  4. Den Artikel überarbeiten.
  5. Den Skill erneut ausführen, um zu sehen, ob sich der Score verbessert hat und ob Blocker beseitigt wurden.

Das ist sinnvoller, als zu versuchen, alle Kommentare auf einmal abzuarbeiten. Am stärksten ist der Skill als iteratives redaktionelles Gate.

So interpretierst du das 80-Punkte-Modell

Die Referenzdatei zeigt, dass das Audit mehrere Dimensionen abdeckt, darunter:

  • Content-Grundlagen wie Intent-Ausrichtung und Query-Abdeckung
  • On-Page-Struktur wie Heading-Hierarchie und sinnvolle Gliederung
  • Signale für Verlässlichkeit und Belege wie Citation Density und Source Hierarchy
  • Signale im Stil von Experience, Expertise und Authority

Genau diese Breite macht den Skill stärker als einen simplen „review my article“-Prompt. Er prüft, ob eine Seite nützlich, gut navigierbar, glaubwürdig und überzeugend genug für die Veröffentlichung ist.

Wofür die Veto-Checks beim content-quality-auditor gut sind

Die praktischste Funktion ist das Konzept der Veto-Checks. Ein Entwurf kann poliert wirken und trotzdem an einem zentralen Blocker scheitern, etwa an schwachen Belegen, oberflächlicher Abdeckung, einer fehlenden direkten Antwort oder Trust-Lücken. In redaktionellen Abläufen sind diese Blocker wichtiger als ein attraktiver Durchschnittsscore, weil sie oft erklären, warum Content nach der Veröffentlichung hinter den Erwartungen zurückbleibt.

Praktische Tipps für bessere Ergebnisse

Für bessere Resultate mit dem content-quality-auditor guide:

  • füge den kompletten Entwurf ein, keine Zusammenfassung
  • nenne die exakte Überschrift und die beabsichtigte Meta-Intention, falls bekannt
  • gib an, ob echte First-Hand Experience vorhanden oder nicht verfügbar ist
  • bitte um Fix-Beispiele, nicht nur um Problemlabels
  • verlange eine Priorisierung nach Ranking-Impact oder Publish-Risiko

Ohne diese Angaben kann das Audit weiterhin nützlich sein, aber es ist weniger auf deine tatsächlichen Content-Constraints zugeschnitten.

Wann du WebFetch oder externen Kontext einsetzen solltest

Wenn der Artikel externe Quellen zitiert, Produktspezifikationen behandelt oder in einer dicht besetzten SERP konkurriert, kann externes Fetching die Beurteilung verbessern. Nutze es gezielt. Das Ziel ist nicht, das Review mit zusätzlicher Recherche aufzublähen, sondern Aussagen zu validieren, die erwartete Query-Abdeckung zu vergleichen oder einzuschätzen, ob der Entwurf im Verhältnis zum Thema zu dünn ist.

content-quality-auditor Skill FAQ

Ist content-quality-auditor gut für Einsteiger:innen

Ja, sofern bereits ein Entwurf vorliegt. Die Struktur ist einsteigerfreundlich, weil sie aus „mach das besser“ ein checklistenbasiertes Review macht. Der Haken: Einsteiger:innen brauchen eventuell Hilfe bei der Einordnung mancher E-E-A-T- oder belegbezogenen Befunde, besonders wenn dem Content originäre Erfahrung fehlt.

Ist das nur für SEO-Artikel gedacht

Nein, aber SEO-Content ist der klarste Fit. Der content-quality-auditor skill funktioniert am besten auf Seiten, bei denen Nutzen, Glaubwürdigkeit und Veröffentlichungsreife wichtig sind. Weniger wertvoll ist er für Fiction, lockere Social Posts oder rein kreatives Schreiben, bei denen das Bewertungsmodell nicht das zentrale Erfolgskriterium ist.

Worin unterscheidet er sich davon, ein LLM einfach um ein Content-Review zu bitten

Ein normaler Review-Prompt kann klug sein, aber inkonsistent. content-quality-auditor gibt dir ein disziplinierteres Framework mit benannten Prüfpunkten, gewichteter Bewertung und Veto-Logik. Dadurch eignet er sich besser für wiederholbare redaktionelle Reviews und Team-Workflows.

Wann sollte ich content-quality-auditor nicht verwenden

Überspringe ihn, wenn:

  • du die Erstellung eines ersten Entwurfs brauchst, nicht dessen Bewertung
  • der Content zu kurz ist, um sinnvoll auditiert zu werden
  • deine Erfolgsmetrik ausschließlich Brand Voice ist
  • der Seitentyp von Produktwahrheiten abhängt, die das Modell nicht verifizieren kann

In diesen Fällen kann der Skill zwar weiterhin hilfreiche Hinweise geben, aber meist nicht genug, um einen formalen Audit-Durchlauf zu rechtfertigen.

Ersetzt er menschliches redaktionelles Urteil

Nein. Am besten funktioniert er als strukturierte Zweitlese. Menschliche Redakteur:innen entscheiden weiterhin über Brand Fit, Faktenrisiken, rechtliche Sensibilität und darüber, ob Empfehlungen unter realen Deadlines und mit den verfügbaren Quellen überhaupt umsetzbar sind.

So verbesserst du den content-quality-auditor Skill

Gib dem content-quality-auditor mehr Publishing-Kontext

Der schnellste Weg zu besseren Ergebnissen mit content-quality-auditor ist, den fehlenden Kontext mitzuliefern, den Redakteur:innen oft nur im Kopf haben:

  • für wen die Seite gedacht ist
  • auf welche Query sie abzielt
  • was „gut genug zum Veröffentlichen“ konkret bedeutet
  • welche Aussagen stärkere Belege brauchen
  • was sich wegen Brand- oder Compliance-Vorgaben nicht ändern lässt

Das reduziert generische Empfehlungen und macht den Maßnahmenplan nützlicher.

Frage nach priorisierten Maßnahmen statt nach einer Feedback-Wand

Ein typischer Fehlmodus ist ein Audit-Output, der erschlagend wirkt. Vermeide das, indem du den Skill bittest, Probleme zu priorisieren:

  • nach Publish-Risiko
  • nach SEO-Impact
  • nach Glaubwürdigkeits-Impact
  • nach Aufwand im Verhältnis zum Nutzen

So wird der erste Durchlauf zu einer umsetzbaren Editing-Queue.

Fordere belegbewusstes Feedback an

Da das Audit-Modell Signale für Verlässlichkeit und Vertrauen enthält, solltest du dem Skill sagen, welche Belege verfügbar sind. Zum Beispiel:

  • „This draft has no original testing.”
  • „We have expert quotes but no proprietary data.”
  • „We can add citations but not screenshots.”

So kann der Skill realistische Verbesserungen empfehlen statt solcher, die in der Praxis gar nicht möglich sind.

Nutze die Item-Referenz, um Schwachstellen gezielt anzugehen

Nach dem ersten Durchlauf solltest du references/item-reference.md prüfen und den Cluster mit den schwächsten Werten identifizieren. Wenn der Artikel bei Punkten wie direkter Antwort, Query-Abdeckung, Citation Density oder transparenter Begründung schwach ist, richte den nächsten Prompt gezielt auf diese Bereiche aus. Das ist eine deutlich bessere Iterationsschleife, als nach einem kompletten Rewrite zu fragen.

Nach der Überarbeitung erneut ausführen und Vergleich anfordern

Ein besonders wertvolles Muster ist, content-quality-auditor zweimal laufen zu lassen:

  1. Baseline-Audit
  2. Audit nach der Überarbeitung

Frage danach:

  • welcher Score sich verändert hat
  • welche Veto-Punkte ausgeräumt wurden
  • welche Schwächen mit hoher Wirkung geblieben sind
  • ob der Entwurf jetzt veröffentlichungsreif ist

So wird der Skill nicht nur für Kritik nützlich, sondern auch für messbaren redaktionellen Fortschritt.

Achte auf typische Fehlinterpretationen

Der Skill kann nur beurteilen, was im Entwurf und im von dir gelieferten Kontext enthalten ist. Rechne mit schwächeren Ergebnissen, wenn:

  • der Artikel über versteckte Autor:innen-Credentials verfügt, die im Prompt nicht enthalten sind
  • Zitate oder Quellen in CMS-Feldern liegen, aber nicht im eingefügten Content
  • der Entwurf nur aus einem Outline besteht
  • die Zielintention unklar ist

Die meisten Beschwerden über ein „schlechtes Audit“ entstehen durch unvollständige Inputs, nicht durch das Framework selbst.

Verbessere Prompts mit einem expliziten Ausgabeformat

Wenn du über mehrere Seiten hinweg konsistente Reviews willst, gib ein Antworttemplate vor, zum Beispiel:

  • overall weighted score
  • veto checks
  • top strengths
  • top weaknesses
  • section-by-section fixes
  • publish / not yet decision

So wird content-quality-auditor usage für redaktionelle Batch-Workflows verlässlicher und Entwürfe lassen sich leichter miteinander vergleichen.

Bewertungen & Rezensionen

Noch keine Bewertungen
Teile deine Rezension
Melde dich an, um für diesen Skill eine Bewertung und einen Kommentar zu hinterlassen.
G
0/10000
Neueste Rezensionen
Wird gespeichert...