M

azure-ai-contentsafety-ts

von microsoft

azure-ai-contentsafety-ts hilft dabei, Text und Bilder mit Azure AI Content Safety in TypeScript auf schädliche Inhalte zu prüfen. Nutzen Sie diese Skill für Moderations-Workflows, Blocklists und Sicherheitsprüfungen von Hassrede, Gewalt, sexuellen Inhalten und Selbstverletzung. Außerdem werden das Einrichten von Azure-Endpunkt und Authentifizierung abgedeckt.

Stars2.3k
Favoriten0
Kommentare0
Hinzugefügt8. Mai 2026
KategorieSecurity Audit
Installationsbefehl
npx skills add microsoft/skills --skill azure-ai-contentsafety-ts
Kurationswert

Diese Skill erreicht 86/100 und ist damit ein solider Kandidat für Agent Skills Finder. Nutzer des Verzeichnisses erhalten einen klar abgegrenzten Azure-AI-Content-Safety-Workflow mit genug Implementierungsdetails, um die Installation abzuwägen. Allerdings ist der Inhalt eher SDK-orientiert als sofort einsatzbereit und es fehlen Begleitdateien, die die Betriebshinweise vertiefen würden.

86/100
Stärken
  • Klarer, präziser Anwendungsfall: Analyse schädlicher Inhalte in Text und Bild mit benutzerdefinierten Blocklists, Moderation von Hass, Gewalt, Sexualität und Selbstverletzung sowie Nutzung von Azure AI Content Safety.
  • Hohe operative Klarheit in der SKILL.md: Installationsbefehl, Umgebungsvariablen und Authentifizierungsbeispiele für sowohl API-Schlüssel als auch DefaultAzureCredential.
  • Substanzieller Inhalt mit Überschriften und Codeblöcken, der Agents konkrete Nutzungsmuster statt Platzhalter liefert.
Hinweise
  • Keine Support-Dateien oder Referenzen außer SKILL.md, daher weniger nachvollziehbare Hinweise und weniger Beispiele für Randfälle.
  • Die Skill ist stark SDK- und REST-Client-zentriert, sodass Agents für eine sichere Ausführung möglicherweise zusätzliches Azure-Setup-Wissen benötigen.
Überblick

Überblick über die azure-ai-contentsafety-ts-Skill

Was azure-ai-contentsafety-ts macht

Die azure-ai-contentsafety-ts-Skill hilft dir, Text und Bilder mit Azure AI Content Safety in TypeScript auf schädliche Inhalte zu prüfen. Sie passt besonders gut, wenn du eine praxisnahe azure-ai-contentsafety-ts-Anleitung für Moderations-Workflows brauchst, etwa für Hassrede, Gewalt, sexuelle Inhalte, Selbstverletzung und blocklistenbasierte Policy-Prüfungen.

Wer sie installieren sollte

Installiere azure-ai-contentsafety-ts, wenn du UGC-Pipelines, Review-Queues, Chat-Sicherheitsfilter oder Prüfungen für Medien-Ingestion in Azure aufbaust oder auditierst. Besonders relevant ist sie für Teams, die azure-ai-contentsafety-ts for Security Audit nutzen und dabei sichere Verarbeitung validieren wollen, statt nur ein Modell aufzurufen.

Warum diese Skill anders ist

Das hier ist eine REST-Client-Skill und kein generisches Prompt-Rezept. Der wichtigste Entscheidungspunkt ist die Authentifizierung und das Endpoint-Setup: ContentSafetyClient ist eine Funktion, und die Skill erwartet, dass du den Azure-Endpunkt plus entweder einen API-Schlüssel oder den Azure-Credential-Flow angibst. Dadurch ist die azure-ai-contentsafety-ts skill stärker auf Deployment und Integration ausgerichtet als ein normales „Bitte klassifiziere diesen Inhalt“-Prompt.

So verwendest du die azure-ai-contentsafety-ts-Skill

Paket installieren und prüfen

Nutze den in der Skill angegebenen Installationspfad: npm install @azure-rest/ai-content-safety @azure/identity @azure/core-auth. Wenn du azure-ai-contentsafety-ts install evaluierst, prüfe zuerst, ob dein Projekt Azure-SDK-Pakete für TypeScript bereits unterstützt und ob du Secrets sicher ablegen kannst.

Die richtigen Dateien zuerst lesen

Beginne mit SKILL.md und prüfe dann die Paketannahmen in der Konfiguration und im Secret-Management deiner Anwendung. Am wichtigsten sind hier das Environment-Variable-Vertrag und das Auth-Muster, also konzentriere dich auf CONTENT_SAFETY_ENDPOINT, CONTENT_SAFETY_KEY und alle Credential-Einstellungen, bevor du Integrationscode schreibst.

Aus einem groben Ziel brauchbare Eingaben machen

Ein gutes azure-ai-contentsafety-ts usage-Request sollte klar benennen: welchen Inhalt du prüfst, ob die Eingabe Text oder Bild ist, welches Policy-Ergebnis du erwartest und wo das Resultat verwendet wird. Formuliere zum Beispiel lieber „Scanne Nutzerprofil-Bios auf sexuelle oder hassbezogene Inhalte und gib eine Moderationsentscheidung plus Reason Codes zurück“ statt einfach „prüfe diesen Text“.

Das SDK im vorgesehenen Workflow einsetzen

Behandle die Skill als API-Integrationsaufgabe: authentifizieren, eine einzelne Moderationsanfrage senden, die Antwort auswerten und das Ergebnis in die Moderationslogik deiner Anwendung übernehmen. Für bessere Resultate solltest du angeben, ob du API-Key-Authentifizierung oder DefaultAzureCredential nutzt, ob der Code lokal oder in Produktion läuft und ob du zusätzlich zum Content-Category-Scoring auch einen Blocklist-Flow brauchst.

Häufige Fragen zur azure-ai-contentsafety-ts-Skill

Ist azure-ai-contentsafety-ts nur für Textmoderation?

Nein. Die azure-ai-contentsafety-ts-Skill deckt sowohl Text- als auch Bildanalyse ab und unterstützt außerdem anpassbare Blocklists. Wenn dein Problem eine breitere Durchsetzung von Content-Safety-Policies ist, passt das besser als ein reines Text-Prompt.

Brauche ich Azure-Authentifizierung, bevor ich sie nutze?

Ja. Die Skill setzt voraus, dass du eine Azure AI Content Safety-Ressource hast und dich dagegen authentifizieren kannst. Wenn du keinen Endpoint und keine Credentials angeben kannst, bleibt die Integration stehen, bevor ein sinnvoller Moderationsergebnis entsteht.

Ist das anfängerfreundlich?

Ja, wenn du ein TypeScript-SDK-Setup nachvollziehen und Environment-Variablen verwalten kannst. Nicht ideal ist es, wenn du eine No-Code-Antwort für Moderation suchst, denn der azure-ai-contentsafety-ts usage-Pfad hängt von einer echten Azure-Konfiguration ab.

Wann sollte ich diese Skill nicht nutzen?

Nutze sie nicht, wenn du ein generisches Brainstorming zu Content-Policies, eine anbieterneutrale Moderationsstrategie oder einen Offline-Only-Klassifikator brauchst. Verzichte auch darauf, wenn du Azure-Credentials nicht bereitstellen kannst oder deine Anwendung keine Sicherheitsbewertung für Text und Bilder benötigt.

So verbesserst du die azure-ai-contentsafety-ts-Skill

Gib dem Modell die Policy-Struktur, nicht nur den Inhalt

Bessere Ergebnisse bekommst du, wenn du festlegst, was in deinem Produkt als „unsicher“ gilt. In azure-ai-contentsafety-ts for Security Audit solltest du die Zieloberfläche, die relevanten Risikokategorien, die Entscheidungsschwelle und alle Blocklist-Begriffe oder -Phrasen angeben, die eine Eskalation auslösen sollen.

Konkrete Eingaben und erwartete Ausgaben liefern

Eine schwache Anfrage lautet: „Prüfe diesen Inhalt.“ Stärker ist: „Scanne diesen Kommentar, klassifiziere ihn auf Hassrede und sexuelle Inhalte und gib zurück, ob er automatisch veröffentlicht, in die Warteschlange gestellt oder abgelehnt werden soll.“ Solche Angaben verbessern azure-ai-contentsafety-ts usage, weil sie der Skill eine klare Entscheidungsgrenze und ein Ausgabeformat geben.

Auf Auth- und Umgebungsfehler achten

Der häufigste Fehler ist, lokale und produktive Credential-Muster zu vermischen. Wenn du DefaultAzureCredential verwendest, sage dazu, ob es sich um lokale Entwicklung oder um gehostete Infrastruktur handelt, und prüfe die erforderliche Einstellung AZURE_TOKEN_CREDENTIALS. Im API-Key-Modus solltest du immer den exakten Endpoint und die Secret-Quelle angeben.

Von Moderationsergebnis zu Produktregel iterieren

Nach dem ersten Lauf solltest du die Anfrage anhand von False Positives, False Negatives oder fehlenden Labels schärfen. Bitte lieber um engere Prüfungen, klarere Erklärungen oder ein Tuning der Blocklist, statt die gesamte Integration neu zu schreiben. Das ist der schnellste Weg, die azure-ai-contentsafety-ts skill in einem echten Workflow zuverlässiger zu machen.

Bewertungen & Rezensionen

Noch keine Bewertungen
Teile deine Rezension
Melde dich an, um für diesen Skill eine Bewertung und einen Kommentar zu hinterlassen.
G
0/10000
Neueste Rezensionen
Wird gespeichert...