M

azure-ai-contentsafety-ts

por microsoft

azure-ai-contentsafety-ts ayuda a analizar texto e imágenes en busca de contenido dañino con Azure AI Content Safety en TypeScript. Usa esta skill para flujos de moderación, listas de bloqueo y comprobaciones de auditoría de seguridad sobre odio, violencia, contenido sexual y autolesiones. También incluye la configuración del endpoint de Azure y la autenticación.

Estrellas2.3k
Favoritos0
Comentarios0
Agregado8 may 2026
CategoríaSecurity Audit
Comando de instalación
npx skills add microsoft/skills --skill azure-ai-contentsafety-ts
Puntuación editorial

Esta skill obtiene 86/100, lo que la convierte en una candidata sólida para Agent Skills Finder. Los usuarios del directorio encuentran un flujo de Azure AI Content Safety claramente acotado, con suficiente detalle de implementación para decidir la instalación, aunque está más orientado al SDK que a una solución lista para usar y carece de archivos de apoyo que amplíen la guía operativa.

86/100
Puntos fuertes
  • Disparador claro y específico: análisis de contenido dañino en texto e imágenes con listas de bloqueo personalizadas, moderación de odio/violencia/contenido sexual/autolesiones y uso de Azure AI Content Safety.
  • Buena claridad operativa en SKILL.md: comando de instalación, variables de entorno y ejemplos de autenticación con API key y DefaultAzureCredential.
  • Cuerpo de contenido amplio con encabezados y bloques de código, que ofrece a los agentes patrones de uso concretos en lugar de contenido de relleno.
Puntos a tener en cuenta
  • No hay archivos de apoyo ni referencias más allá de SKILL.md, por lo que los usuarios tienen menos información cruzable y menos ejemplos sobre comportamientos en casos límite.
  • La skill está centrada en el SDK y en un cliente REST concreto, así que los agentes pueden seguir necesitando cierto conocimiento de la configuración de Azure para ejecutarla con confianza.
Resumen

Resumen de la skill azure-ai-contentsafety-ts

Qué hace azure-ai-contentsafety-ts

La skill azure-ai-contentsafety-ts te ayuda a analizar texto e imágenes en busca de contenido dañino con Azure AI Content Safety en TypeScript. Es la opción adecuada cuando necesitas una guía práctica de azure-ai-contentsafety-ts para flujos de moderación, incluidos controles de odio, violencia, contenido sexual, autolesiones y políticas basadas en blocklists.

Quién debería instalarla

Instala azure-ai-contentsafety-ts si estás creando o auditando pipelines de UGC, colas de revisión, filtros de seguridad para chat o comprobaciones de ingesta de medios en Azure. Es especialmente relevante para equipos que hacen azure-ai-contentsafety-ts for Security Audit, donde el objetivo es validar un manejo más seguro y no solo llamar a un modelo.

Por qué esta skill es diferente

Esta skill es un cliente REST, no una receta genérica de prompts. El principal punto de decisión es la autenticación y la configuración del endpoint: ContentSafetyClient es una función, y la skill espera que proporciones el endpoint de Azure junto con una clave de API o un flujo de credenciales de Azure. Eso hace que la azure-ai-contentsafety-ts skill esté más orientada al despliegue que un prompt normal de “pide al modelo que clasifique contenido”.

Cómo usar la skill azure-ai-contentsafety-ts

Instala y confirma el paquete

Usa la ruta de instalación publicada que aparece en la skill: npm install @azure-rest/ai-content-safety @azure/identity @azure/core-auth. Si estás evaluando azure-ai-contentsafety-ts install, verifica que tu proyecto ya sea compatible con paquetes TypeScript del SDK de Azure y que puedas guardar secretos de forma segura.

Lee primero los archivos correctos

Empieza con SKILL.md y luego confirma las expectativas del paquete en la propia configuración de tu aplicación y en la gestión de secretos. La información más útil aquí es el contrato de variables de entorno y el patrón de autenticación, así que céntrate en CONTENT_SAFETY_ENDPOINT, CONTENT_SAFETY_KEY y cualquier ajuste de credenciales antes de escribir el código de integración.

Convierte un objetivo aproximado en una entrada utilizable

Una buena solicitud de azure-ai-contentsafety-ts usage debería especificar: qué contenido estás revisando, si la entrada es texto o imagen, qué resultado de política quieres y dónde se usará el resultado. Por ejemplo, mejor decir “analiza las biografías de perfil de usuarios en busca de contenido sexual o de odio y devuelve una decisión de moderación junto con códigos de motivo” que “revisa este texto”.

Usa el SDK en el flujo de trabajo que espera

Trata la skill como una tarea de integración de API: autentícate, envía una única solicitud de moderación, interpreta la respuesta y luego conecta ese resultado con la lógica de moderación de tu aplicación. Para obtener mejores resultados, indica si usas autenticación con clave de API o DefaultAzureCredential, si el código se ejecuta en local o en producción, y si además necesitas un flujo de blocklist junto con la puntuación por categoría de contenido.

Preguntas frecuentes sobre la skill azure-ai-contentsafety-ts

¿azure-ai-contentsafety-ts es solo para moderación de texto?

No. La skill azure-ai-contentsafety-ts cubre tanto análisis de texto como de imágenes, además de blocklists personalizables. Si tu problema es una política más amplia de seguridad de contenido, encaja mejor que un prompt limitado a texto.

¿Necesito autenticación de Azure antes de usarla?

Sí. La skill da por hecho que tienes un recurso de Azure AI Content Safety y que puedes autenticarte contra él. Si no puedes proporcionar un endpoint y credenciales, la integración se quedará bloqueada antes de producir un resultado útil de moderación.

¿Es apta para principiantes?

Sí, si puedes seguir una configuración de SDK en TypeScript y gestionar variables de entorno. No es ideal si quieres una respuesta de moderación sin código, porque el flujo de azure-ai-contentsafety-ts usage depende de una configuración real de Azure.

¿Cuándo no debería usar esta skill?

No la uses si necesitas una lluvia de ideas genérica sobre políticas de contenido, una estrategia de moderación agnóstica al proveedor o un clasificador que funcione solo sin conexión. También conviene evitarla cuando no puedas exponer credenciales de Azure o cuando tu aplicación no necesite puntuación de seguridad para texto e imágenes.

Cómo mejorar la skill azure-ai-contentsafety-ts

Dale al modelo la forma de la política, no solo el contenido

Los mejores resultados llegan cuando defines qué significa “no seguro” en tu producto. En azure-ai-contentsafety-ts for Security Audit, incluye la superficie objetivo, las categorías de riesgo que te importan, el umbral de decisión y cualquier término o frase de blocklist que deba activar una escalada.

Aporta entradas concretas y salidas esperadas

Una solicitud débil es “revisa este contenido”. Una más sólida es “analiza este comentario, clasifícalo por odio y contenido sexual, y devuelve si debe publicarse automáticamente, ir a cola o rechazarse”. Ese tipo de entrada mejora azure-ai-contentsafety-ts usage porque le da a la skill un límite de decisión y un formato de salida.

Vigila los desajustes de autenticación y entorno

El fallo más común es mezclar patrones de credenciales de local y de producción. Si usas DefaultAzureCredential, indica si es para desarrollo local o infraestructura desplegada, y confirma el ajuste requerido de AZURE_TOKEN_CREDENTIALS. En modo de clave de API, incluye siempre el endpoint exacto y el origen del secreto.

Itera del resultado de moderación a la regla de producto

Después de la primera ejecución, ajusta la solicitud según falsos positivos, falsos negativos o etiquetas ausentes. Pide comprobaciones más específicas, explicaciones más claras o ajustes de blocklist en lugar de reescribir toda la integración. Esa es la forma más rápida de hacer que la azure-ai-contentsafety-ts skill sea más fiable en un flujo de trabajo real.

Calificaciones y reseñas

Aún no hay calificaciones
Comparte tu reseña
Inicia sesión para dejar una calificación y un comentario sobre esta skill.
G
0/10000
Reseñas más recientes
Guardando...