elevenlabs-music
par inferen-shGénérez de la musique originale avec l’IA à partir de prompts texte grâce au CLI inference.sh et à ElevenLabs. Contrôlez la durée, le style et l’ambiance pour créer depuis votre terminal de la musique de fond libre de droits, des bandes-son, des jingles, des beds pour podcasts et de l’audio pour jeux vidéo.
Vue d’ensemble
Qu’est-ce que elevenlabs-music ?
elevenlabs-music est une skill de génération musicale par IA orientée ligne de commande, qui connecte votre agent ou vos workflows en terminal au modèle de musique ElevenLabs via le CLI inference.sh (infsh).
Avec un simple prompt texte, vous pouvez générer une musique originale, libre de droits et adaptée à votre projet. La skill encapsule l’app elevenlabs/music sur inference.sh, ce qui vous permet de :
- Transformer des descriptions textuelles en musique (text-to-music)
- Contrôler la durée du morceau de 5 secondes à 10 minutes
- Orienter le genre, l’ambiance et l’instrumentation dans votre prompt
- Produire de l’audio adapté à un usage commercial, par exemple pour des vidéos, podcasts et jeux
À qui s’adresse cette skill ?
elevenlabs-music est conçue pour :
- Les créateurs et monteurs qui ont besoin de pistes d’ambiance sur mesure, rapidement, pour YouTube, TikTok, des livestreams, des podcasts ou des bandes-annonces
- Les développeurs de jeux et d’applications qui veulent des beds musicaux adaptatifs, à la demande, pour des niveaux, menus ou expériences in-app
- Les marketeurs et équipes de marque qui créent des jingles, des signaux courts et de la musique compatible publicité sans devoir faire appel à un compositeur pour chaque variante
- Les développeurs et créateurs d’agents qui souhaitent une interface de type CLI/API prévisible pour générer de la musique depuis des scripts, des automatisations ou des agents IA
Si vous utilisez déjà inference.sh ou que vous construisez des workflows autour d’outils CLI, elevenlabs-music s’intègre naturellement à votre stack.
Quels problèmes elevenlabs-music résout-elle ?
Cette skill est utile lorsque vous avez besoin :
- De musique rapide et libre de droits sans passer des heures dans des bibliothèques de stock
- D’un style cohérent à la demande (par exemple, plusieurs pistes avec une ambiance similaire pour une série)
- D’une création audio compatible avec l’automatisation, où un agent ou un script génère de la musique en réponse à une entrée utilisateur ou à des métadonnées de contenu
Comme elle s’exécute via infsh app run elevenlabs/music, vous pouvez l’intégrer dans des scripts shell, des pipelines CI ou des agents conversationnels sans construire de couche API personnalisée.
Quand elevenlabs-music est-elle un bon choix ?
Utilisez elevenlabs-music lorsque :
- Vous êtes à l’aise avec les commandes de base en CLI ou avec des outils d’agent qui appellent la CLI
- Vous souhaitez surtout générer de la musique de fond, des ambiances ou des signaux simples, plutôt que des chansons complètes avec voix
- Vous avez besoin de boucler rapidement : tester plusieurs prompts et durées pour trouver la bonne piste
Elle sera moins adaptée si :
- Vous avez besoin d’une orchestration musicale très fine (mesures, tempo map, progressions d’accords) contrôlée de façon programmatique
- Il vous faut des voix, un alignement de paroles ou des exports multi-stems (par exemple pistes séparées pour la batterie, la basse, les voix)
- Vous ne souhaitez pas du tout utiliser le CLI inference.sh — cette skill dépend de
infsh
Comment utiliser
1. Prérequis et installation
Vérifier votre environnement
Avant d’utiliser elevenlabs-music, assurez-vous de disposer de :
- Un système sur lequel vous pouvez installer et exécuter le CLI inference.sh (
infsh) - Un accès réseau permettant à
infshd’appeler l’appelevenlabs/musicalimentée par ElevenLabs
Installer la skill dans votre environnement d’agent
Si vous utilisez le chargeur de skills décrit dans le dépôt inferen-sh/skills, installez elevenlabs-music avec :
npx skills add https://github.com/inferen-sh/skills --skill elevenlabs-music
Cette commande récupère la définition de la skill depuis le dépôt et la rend disponible dans vos outils d’agent.
Installer le CLI inference.sh
elevenlabs-music repose sur le CLI infsh. Suivez les instructions d’installation officielles disponibles dans le dépôt :
- Guide d’installation du CLI :
https://raw.githubusercontent.com/inference-sh/skills/refs/heads/main/cli-install.md
Après l’installation, vérifiez que tout fonctionne :
infsh --help
Si la commande renvoie le texte d’aide, votre CLI est opérationnel.
2. Se connecter à inference.sh
Avant de générer de la musique, authentifiez votre session CLI :
infsh login
Suivez les invites interactives pour finaliser la connexion. Cela lie infsh à votre compte inference.sh et active l’accès à l’app elevenlabs/music.
3. Générer votre première piste musicale IA
Commande text-to-music basique
Une fois connecté, vous pouvez générer de la musique immédiatement avec un prompt simple :
infsh app run elevenlabs/music --input '{"prompt": "Upbeat electronic dance track with driving synths"}'
Cette commande envoie votre description au modèle musical ElevenLabs via inference.sh. La sortie sera un JSON contenant des références vers l’audio généré (telles que des URLs ou des métadonnées de fichier, selon la configuration de votre CLI).
4. Contrôler la durée et le style
La skill elevenlabs-music expose des paramètres de l’app sous-jacente pour vous permettre de régler le résultat.
Paramètres disponibles
prompt(string, obligatoire)- Une description en langage naturel de la musique souhaitée (2000 caractères maximum).
- Incluez si possible le genre, l’ambiance, le tempo et les instruments.
duration_seconds(number, optionnel)- Valeur par défaut :
30 - Min :
5, Max :600(jusqu’à 10 minutes)
- Valeur par défaut :
Exemples d’utilisation
Exemple : petit jingle de fond (10 secondes)
infsh app run elevenlabs/music --input '{
"prompt": "Short cinematic logo sting with orchestral hit and subtle whoosh",
"duration_seconds": 10
}'
Exemple : lo-fi study beats (2 minutes)
infsh app run elevenlabs/music --input '{
"prompt": "Lo-fi hip hop beat, chill study music, vinyl crackle, mellow piano",
"duration_seconds": 120
}'
Ces exemples illustrent comment adapter la durée pour des intros, des stingers ou des beds d’ambiance plus longs.
5. Comprendre la sortie
La génération musicale ElevenLabs s’exécute dans l’environnement d’app inference.sh et renvoie une sortie JSON. Même si la structure exacte peut évoluer, vous pouvez généralement vous attendre à des clés qui référencent l’audio généré (par exemple, une URL vers le fichier rendu ou un ID interne à inference.sh).
Étapes suivantes typiques :
- Parser le JSON dans votre script ou agent
- Télécharger le fichier audio pour l’utiliser dans votre éditeur (DAW, éditeur vidéo, outil de podcast)
- Stocker les métadonnées (prompt, durée, horodatage) avec vos assets média pour une régénération ou une documentation ultérieure
6. Utiliser elevenlabs-music dans des agents et workflows
Comme cette skill est définie dans le dépôt inferen-sh/skills et configurée pour utiliser Bash via infsh, les agents peuvent :
- Appeler
infsh app run elevenlabs/musiclorsqu’ils détectent une intention du type « génère une musique de fond pour l’intro de ma vidéo » - Construire dynamiquement le
promptet leduration_secondsà partir des instructions de l’utilisateur - Retourner au besoin le lien vers la musique ou la référence de fichier à l’utilisateur ou à d’autres outils
Cela rend elevenlabs-music utile pour :
- Des pipelines de contenu multi-étapes (par ex. générer le script → générer les images → générer la musique correspondante)
- Des assistants créatifs conversationnels capables de fournir des bandes-son sur mesure à la demande
7. Fichiers et configuration à consulter
Après installation de la skill, ouvrez ces fichiers dans le dépôt inferen-sh/skills pour comprendre ou ajuster son comportement :
SKILL.md(à la racine de cette skill) : description générale et commandes de démarrage rapidetools/audio/elevenlabs-music/(si présent dans votre clone) : détails d’implémentation et scripts d’aide éventuels
Ces fichiers expliquent comment la skill est reliée au CLI et précisent les modifications ou mises à jour.
FAQ
elevenlabs-music est-elle gratuite ?
elevenlabs-music est en soi une définition de skill qui se connecte à l’app elevenlabs/music via inference.sh. Les coûts ou limites d’usage dépendent de votre configuration inference.sh et ElevenLabs, et non directement de cette skill.
Avant un usage intensif, vérifiez les tarifs, quotas et limites de débit sur votre compte inference.sh et votre offre ElevenLabs.
Quel type de musique elevenlabs-music peut-elle générer ?
Le modèle ElevenLabs sous-jacent est conçu pour des pistes instrumentales et des musiques d’ambiance, pilotées par des prompts en langage naturel. Vous pouvez décrire :
- Genres : lo-fi, EDM, cinématique, ambient, rock, orchestral, etc.
- Ambiances : dynamique, sombre, suspense, relaxante, entraînante
- Contextes : musique de travail, musique de bande-annonce, thème de niveau de jeu, intro de podcast, bed pour publicité
Des prompts détaillés (ambiance + genre + instruments + contexte) améliorent généralement les résultats.
Quelle peut être la durée des morceaux générés ?
Vous pouvez régler duration_seconds entre 5 secondes et 600 secondes :
- Minimum :
5 - Maximum :
600(10 minutes)
Si vous omettez ce paramètre, la valeur par défaut est 30 secondes.
Comment changer la durée de la musique ?
Ajoutez duration_seconds au JSON passé à --input :
infsh app run elevenlabs/music --input '{
"prompt": "Epic orchestral battle music",
"duration_seconds": 300
}'
Ajustez la valeur selon la longueur souhaitée, dans la limite de 5 à 600 secondes.
Puis-je utiliser les pistes elevenlabs-music à des fins commerciales ?
La description de la SKILL indique la possibilité d’un usage commercial libre de droits pour la génération musicale ElevenLabs via inference.sh. Toutefois, vérifiez toujours les licences et conditions d’utilisation en vigueur directement auprès de ElevenLabs et inference.sh, car les politiques peuvent évoluer.
Dois-je écrire du code pour utiliser elevenlabs-music ?
Vous n’avez pas besoin de développer une application complète, mais il est préférable d’être à l’aise avec :
- L’exécution de commandes dans un terminal
- La fourniture d’input JSON via l’option
--input
Pour une intégration plus poussée (par ex. dans une application web ou une plateforme d’agent), votre code appellera généralement infsh (shell out) ou utilisera le mécanisme prévu par votre framework d’agent pour déclencher des outils CLI.
elevenlabs-music gère-t-elle la voix ou les paroles ?
Cette skill est centrée sur la génération de musique à partir de prompts texte, pas sur l’alignement de paroles ni la performance vocale. Vous pouvez décrire des textures de type voix dans votre prompt (par ex. "choir pads" ou "vocal chops"), mais la génération précise d’une mélodie calée sur des paroles ne fait pas partie du périmètre documenté de la skill.
Où trouver plus de détails ou des mises à jour ?
Consultez la skill dans le dépôt inferen-sh/skills :
- Repo :
https://github.com/inferen-sh/skills - Chemin de la skill :
tools/audio/elevenlabs-music
Référez-vous à SKILL.md et aux fichiers associés pour les exemples les plus récents, les paramètres disponibles et les notes d’utilisation du CLI. Si le CLI ou le nom de l’app change, ces fichiers seront en général mis à jour en premier.
