elevenlabs-music
por inferen-shGenera música original con IA a partir de prompts de texto usando la CLI de inference.sh y ElevenLabs. Controla duración, estilo y estado de ánimo para crear música de fondo libre de regalías, bandas sonoras, jingles, camas para podcasts y audio para videojuegos directamente desde tu terminal.
Descripción general
¿Qué es elevenlabs-music?
elevenlabs-music es una skill de generación de música con IA centrada en la línea de comandos, que conecta tu agente o flujo de trabajo en terminal con el modelo de música de ElevenLabs a través de la CLI de inference.sh (infsh).
Con un prompt de texto breve, puedes generar música original y libre de regalías adaptada a tu proyecto. La skill encapsula la app elevenlabs/music en inference.sh para que puedas:
- Convertir descripciones de texto en música (text-to-music)
- Controlar la duración de la pista desde 5 segundos hasta 10 minutos
- Dirigir género, estado de ánimo e instrumentación en tu prompt
- Producir audio apto para uso comercial, como videos, podcasts y juegos
¿Para quién es esta skill?
elevenlabs-music está diseñada para:
- Creadores y editores que necesitan pistas de fondo personalizadas rápidamente para YouTube, TikTok, directos, podcasts o tráilers
- Desarrolladores de videojuegos y apps que quieren camas musicales adaptativas y bajo demanda para niveles, menús o experiencias dentro de la aplicación
- Equipos de marketing y de marca que crean jingles, colas cortas y música apta para anuncios sin contratar a un compositor para cada variación
- Desarrolladores y creadores de agentes que quieren una interfaz estilo CLI/API predecible para generar música desde scripts, automatizaciones o agentes de IA
Si ya usas inference.sh o construyes flujos de trabajo alrededor de herramientas de CLI, elevenlabs-music encaja de forma natural en tu stack.
¿Qué problemas resuelve elevenlabs-music?
Esta skill ayuda cuando necesitas:
- Música rápida y libre de regalías sin tener que bucear en bibliotecas de stock
- Un estilo consistente bajo demanda (por ejemplo, múltiples pistas con un ambiente similar para una serie)
- Creación de audio apta para automatización, donde un agente o script genera música en respuesta a la entrada del usuario o metadatos de contenido
Como se ejecuta mediante infsh app run elevenlabs/music, puedes integrarla en scripts de shell, pipelines de CI o agentes basados en chat sin construir una capa de API a medida.
¿Cuándo es buena opción elevenlabs-music?
Usa elevenlabs-music cuando:
- Te sientes cómodo con comandos básicos de CLI o con herramientas de agentes que llaman a la CLI
- Quieres generar música de fondo, ambientes o colas sencillas más que canciones vocales totalmente estructuradas
- Necesitas iterar rápido: probar múltiples prompts y duraciones hasta encontrar la pista adecuada
Puede ser menos adecuada si:
- Requieres arreglos musicales muy detallados (compases, mapas de tempo, progresiones de acordes) controlados por código
- Necesitas interpretación vocal, sincronización de letras o exportaciones multi‑stem (por ejemplo, pistas separadas de batería, bajo, voces)
- No quieres usar la CLI de inference.sh en absoluto: esta skill depende de
infsh
Cómo usar
1. Requisitos previos e instalación
Comprueba tu entorno
Antes de usar elevenlabs-music, asegúrate de tener:
- Un sistema donde puedas instalar y ejecutar la CLI de inference.sh (
infsh) - Acceso a red para que
infshpueda llamar a la appelevenlabs/musicimpulsada por ElevenLabs
Instala la skill en tu entorno de agente
Si usas el cargador de skills descrito en el repositorio inferen-sh/skills, instala elevenlabs-music con:
npx skills add https://github.com/inferen-sh/skills --skill elevenlabs-music
Esto descarga la definición de la skill desde el repositorio y la pone a disposición de tus herramientas de agente.
Instala la CLI de inference.sh
elevenlabs-music depende de la CLI infsh. Sigue las instrucciones oficiales de instalación en el repositorio:
- Guía de instalación de la CLI:
https://raw.githubusercontent.com/inference-sh/skills/refs/heads/main/cli-install.md
Tras la instalación, verifica que funciona:
infsh --help
Si el comando responde con el texto de ayuda, tu CLI está lista.
2. Inicia sesión en inference.sh
Antes de generar música, autentica tu sesión de CLI:
infsh login
Sigue los prompts interactivos para completar el inicio de sesión. Esto vincula infsh con tu cuenta de inference.sh y habilita el acceso a la app elevenlabs/music.
3. Genera tu primera pista de música con IA
Comando básico de text-to-music
Una vez iniciada la sesión, puedes generar música de inmediato con un prompt sencillo:
infsh app run elevenlabs/music --input '{"prompt": "Upbeat electronic dance track with driving synths"}'
Este comando envía tu descripción al modelo de música de ElevenLabs a través de inference.sh. La salida será JSON con referencias al audio generado (como URLs o metadatos de archivo, según la configuración de tu CLI).
4. Controla la duración y el estilo
La skill elevenlabs-music expone parámetros de la app subyacente para que puedas ajustar los resultados.
Parámetros disponibles
prompt(string, obligatorio)- Una descripción en lenguaje natural de la música que quieres (máx. 2000 caracteres).
- Incluye género, estado de ánimo, tempo e instrumentos siempre que puedas.
duration_seconds(number, opcional)- Valor por defecto:
30 - Mínimo:
5, máximo:600(hasta 10 minutos)
- Valor por defecto:
Ejemplos de uso
Ejemplo: efecto corto de fondo (10 segundos)
infsh app run elevenlabs/music --input '{
"prompt": "Short cinematic logo sting with orchestral hit and subtle whoosh",
"duration_seconds": 10
}'
Ejemplo: lo-fi study beats (2 minutos)
infsh app run elevenlabs/music --input '{
"prompt": "Lo-fi hip hop beat, chill study music, vinyl crackle, mellow piano",
"duration_seconds": 120
}'
Estos ejemplos muestran cómo puedes adaptar la duración para intros, stingers o camas de fondo más largas.
5. Interpretar la salida
La generación de música de ElevenLabs se ejecuta dentro del entorno de apps de inference.sh y devuelve salida JSON. Aunque la estructura exacta puede cambiar con el tiempo, normalmente verás claves que hacen referencia al audio generado (por ejemplo, una URL del archivo renderizado o un ID dentro de inference.sh).
Pasos habituales a continuación:
- Analizar el JSON en tu script o agente
- Descargar el archivo de audio para usarlo en tu editor (DAW, editor de video, herramienta de podcast)
- Guardar metadatos (prompt, duración, marca de tiempo) junto a tus recursos multimedia para re‑generación o documentación futura
6. Usar elevenlabs-music dentro de agentes y flujos de trabajo
Como esta skill está definida en el repositorio inferen-sh/skills y marcada para usar Bash vía infsh, los agentes pueden:
- Llamar a
infsh app run elevenlabs/musiccuando detectan una intención del usuario como “genera música de fondo para la intro de mi video” - Construir dinámicamente el
promptyduration_secondssegún las instrucciones del usuario - Devolver el enlace de la música o la referencia al archivo al usuario o a herramientas posteriores en el flujo
Esto hace que elevenlabs-music sea útil para:
- Flujos de contenido multi‑paso (por ejemplo, generar guion → generar imágenes → generar música a juego)
- Asistentes creativos basados en chat que puedan proporcionar bandas sonoras personalizadas bajo demanda
7. Archivos y configuración que conviene revisar
Después de instalar la skill, abre estos archivos en el repositorio inferen-sh/skills para entender o personalizar su comportamiento:
SKILL.md(a nivel raíz para esta skill): Descripción general y comandos de inicio rápidotools/audio/elevenlabs-music/(si está presente en tu clon): Detalles de implementación y posibles scripts auxiliares
Estos archivos documentan cómo está conectada la skill con la CLI y aclaran cualquier cambio o actualización.
Preguntas frecuentes (FAQ)
¿elevenlabs-music es gratuita?
elevenlabs-music en sí es una definición de skill que se conecta a la app elevenlabs/music vía inference.sh. Cualquier coste o límite de uso proviene de tu configuración de inference.sh y ElevenLabs, no directamente de esta skill.
Revisa tu cuenta de inference.sh y tu plan de ElevenLabs para conocer precios, cuotas y límites de tasa antes de un uso intensivo.
¿Qué tipo de música puede generar elevenlabs-music?
El modelo de ElevenLabs subyacente está orientado a pistas instrumentales y de fondo impulsadas por prompts en lenguaje natural. Puedes describir:
- Géneros: lo-fi, EDM, cinematográfico, ambient, rock, orquestal, etc.
- Estados de ánimo: animado, oscuro, de suspense, relajante, inspirador
- Contextos: música para estudiar, banda sonora de tráiler, tema de nivel de juego, intro de podcast, cama para anuncios
Usa prompts detallados (estado de ánimo + género + instrumentos + contexto) para mejorar los resultados.
¿Cuánto pueden durar las pistas generadas?
Puedes definir duration_seconds entre 5 y 600 segundos:
- Mínimo:
5 - Máximo:
600(10 minutos)
Si omites el parámetro, el valor por defecto es 30 segundos.
¿Cómo cambio la duración de la música?
Incluye duration_seconds en el JSON que pasas a --input:
infsh app run elevenlabs/music --input '{
"prompt": "Epic orchestral battle music",
"duration_seconds": 300
}'
Ajusta el número a la duración que necesites, dentro del rango de 5–600 segundos.
¿Puedo usar las pistas de elevenlabs-music de forma comercial?
La descripción de la SKILL indica uso comercial libre de regalías como una capacidad de la generación de música con IA de ElevenLabs vía inference.sh. No obstante, confirma siempre las licencias y condiciones vigentes directamente con ElevenLabs e inference.sh, ya que las políticas pueden cambiar.
¿Necesito programar para usar elevenlabs-music?
No necesitas escribir una aplicación completa, pero sí deberías sentirte cómodo con:
- Ejecutar comandos en una terminal
- Proporcionar entrada JSON mediante la opción
--input
Para una integración más profunda (por ejemplo, dentro de una web o plataforma de agentes), tu código normalmente invocará infsh desde el sistema o usará el mecanismo que tu framework de agentes ofrezca para llamar a herramientas de CLI.
¿elevenlabs-music admite voz o letras?
Esta skill se centra en la generación de música a partir de prompts de texto, no en la sincronización de letras ni en la interpretación vocal. Puedes describir texturas tipo voz en tu prompt (por ejemplo, “choir pads” o “vocal chops”), pero la generación precisa de melodías con letra está fuera del alcance documentado de esta skill.
¿Dónde puedo encontrar más detalles o novedades?
Visita la skill en el repositorio inferen-sh/skills:
- Repo:
https://github.com/inferen-sh/skills - Ruta de la skill:
tools/audio/elevenlabs-music
Consulta SKILL.md y los archivos relacionados para ver los ejemplos más recientes, parámetros y notas de uso de la CLI. Si el nombre de la CLI o de la app cambia, esos archivos suelen actualizarse primero.
