I

elevenlabs-voice-changer

par inferen-sh

Skill de changement de voix ElevenLabs utilisant le CLI inference.sh (infsh) pour transformer une voix enregistrée en une autre voix synthétique tout en préservant le contenu et l’émotion. Prend en charge `eleven_multilingual_sts_v2` (70+ langues) et `eleven_english_sts_v2` pour le speech-to-speech, le changement d’accent et la dissimulation de voix dans la création de contenu, le doublage et les voix de personnages.

Étoiles0
Favoris0
Commentaires0
Ajouté27 mars 2026
CatégorieVoice Generation
Commande d’installation
npx skills add https://github.com/inferen-sh/skills --skill elevenlabs-voice-changer
Vue d’ensemble

Vue d’ensemble

Qu’est-ce que elevenlabs-voice-changer ?

elevenlabs-voice-changer est une skill qui connecte le changeur de voix speech-to-speech ElevenLabs à l’interface en ligne de commande inference.sh (infsh). Elle vous permet d’envoyer un enregistrement audio existant et de récupérer la même parole dans une autre voix synthétique, tout en préservant ce qui est dit et la manière dont c’est exprimé.

En coulisses, la skill appelle l’app ElevenLabs voice-changer via infsh app run elevenlabs/voice-changer, ce qui vous évite de câbler les APIs manuellement. Vous décrivez l’audio en entrée et la voix cible, et le service renvoie l’audio transformé.

Fonctionnalités principales

  • Conversion speech-to-speech – transformez n’importe quel audio parlé dans une nouvelle voix sans réenregistrer.
  • Support multilingue (70+ langues) – via eleven_multilingual_sts_v2.
  • Modèle optimisé pour l’anglais – via eleven_english_sts_v2 pour une meilleure qualité en anglais.
  • Changement d’accent et de style – changez d’accent, de tonalité ou de persona en utilisant les voix premium ElevenLabs.
  • Dissimulation de voix et confidentialité – anonymisez ou masquez votre vraie voix pour les contenus publics.

À qui s’adresse cette skill ?

Cette skill est particulièrement adaptée si vous :

  • Créez du contenu pour YouTube, TikTok ou les réseaux sociaux et souhaitez changer ou améliorer votre voix off.
  • Produisez des podcasts ou voice-overs et avez besoin de changer rapidement de langue, d’accent ou de voix.
  • Travaillez sur des contenus marketing ou des vidéos explicatives produit et voulez plusieurs voix de marque sans engager différents comédiens.
  • Créez des personnages IA ou des démos et avez besoin de voix cohérentes et réutilisables.

Elle est moins adaptée si vous :

  • Avez besoin d’un workflow uniquement avec interface graphique et montage sur timeline (elle est centrée sur le CLI).
  • Exigez un traitement totalement hors ligne (elle dépend d’inference.sh et d’ElevenLabs dans le cloud).
  • Cherchez des outils d’ingénierie audio avancés comme l’EQ, le mixage ou le montage multi-pistes ; cette skill est dédiée à la transformation de voix, pas aux fonctions complètes d’une station audionumérique.

Modèles et options de voix

La skill elevenlabs-voice-changer expose les mêmes modèles que ceux décrits dans le dépôt :

  • Multilingual STS v2 – ID de modèle : eleven_multilingual_sts_v2 (par défaut, prend en charge 70+ langues).
  • English STS v2 – ID de modèle : eleven_english_sts_v2 (optimisé pour la parole en anglais).

Elle peut utiliser les 22+ voix premium ElevenLabs également disponibles dans leurs produits TTS, y compris des voix par défaut comme :

  • george – britannique, autoritaire (voix par défaut dans la documentation).
  • aria – américaine, conversationnelle.

Vous sélectionnez ces voix en passant le paramètre voice lors de l’appel de l’app.

Comment l’utiliser

1. Prérequis et installation

Avant d’utiliser elevenlabs-voice-changer, vous devez avoir installé et authentifié le CLI inference.sh.

  1. Installer le CLI inference.sh (infsh)
    Suivez les instructions officielles depuis le dépôt :
    https://raw.githubusercontent.com/inference-sh/skills/refs/heads/main/cli-install.md

  2. Vous connecter à inference.sh avec votre compte :

    infsh login
    
  3. Ajouter la skill (Agent Skills Finder / registre de skills)
    Si vous l’utilisez comme skill dans la collection de skills, ajoutez-la avec :

    npx skills add https://github.com/inferen-sh/skills --skill elevenlabs-voice-changer
    

Après ces étapes, votre environnement est prêt pour appeler l’app ElevenLabs voice changer via infsh.

2. Transformation vocale basique

La façon la plus rapide de tester elevenlabs-voice-changer est d’exécuter l’exemple fourni dans la documentation de la skill :

infsh login

# Transform voice
infsh app run elevenlabs/voice-changer --input '{"audio": "https://recording.mp3", "voice": "aria"}'

Dans cet exemple :

  • audio est une URL pointant vers votre enregistrement source (par exemple un fichier .mp3 hébergé en ligne).
  • voice est l’ID de la voix cible ElevenLabs (aria dans ce cas).

L’app traite l’enregistrement et renvoie un nouveau fichier audio avec le même contenu vocal, mais dans la voix aria.

3. Choix des modèles et des langues

Par défaut, la skill est configurée pour utiliser :

  • eleven_multilingual_sts_v2 pour une couverture large des langues (70+ langues).

Si votre cas d’usage est strictement anglophone et que vous souhaitez un modèle optimisé pour l’anglais, configurez l’entrée de l’app ou votre workflow pour utiliser :

  • eleven_english_sts_v2 pour une meilleure clarté et prosodie en anglais.

Le champ exact de sélection du modèle est géré dans la configuration de l’app ElevenLabs, mais lorsque vous choisissez les modèles, utilisez ces IDs tels que référencés dans la documentation de la skill.

4. Gérer différentes voix et accents

Pour tester différents accents ou styles, modifiez le paramètre voice dans votre JSON passé à --input.

Exemples (schéma) :

# British, authoritative
infsh app run elevenlabs/voice-changer --input '{"audio": "https://recording.mp3", "voice": "george"}'

# American, conversational
infsh app run elevenlabs/voice-changer --input '{"audio": "https://recording.mp3", "voice": "aria"}'

Vous pouvez réutiliser le même audio d’origine pour plusieurs exécutions avec des IDs de voice différents afin de comparer rapidement les voix pour votre projet.

5. Intégration dans votre workflow

Comme elevenlabs-voice-changer s’exécute entièrement via le CLI, il s’intègre bien dans des pipelines scriptés ou automatisés :

  • Traitement par lots – bouclez sur un dossier d’URLs audio ou d’enregistrements pré-hébergés et appelez infsh app run en série.
  • Localisation de contenu – enregistrez une seule fois, puis transformez vos narrations avec différents accents ou voix selon les marchés.
  • Anonymisation de voix – post-traitez des appels enregistrés, interviews ou contributions utilisateurs avant publication.

Si vous utilisez un framework d’agent plus large ou une couche d’orchestration, vous pouvez appeler cette skill comme une étape de votre pipeline partout où un besoin de « conversion de voix » ou de « doublage » apparaît.

6. Fichiers à consulter dans le dépôt

Lorsque vous ouvrez la skill dans le dépôt inferen-sh/skills, commencez par :

  • SKILL.md – description générale, fonctionnalités et commande de démarrage rapide à copier et adapter.

D’autres fichiers courants dans le dépôt de skills (comme AGENTS.md, metadata.json, et les dossiers rules/ ou scripts/ lorsqu’ils existent dans d’autres outils) montrent comment les skills s’intègrent dans des workflows d’agents plus complexes. Pour elevenlabs-voice-changer, SKILL.md reste la documentation principale.

FAQ

Que fait exactement elevenlabs-voice-changer ?

elevenlabs-voice-changer utilise les modèles speech-to-speech ElevenLabs, appelés via le CLI inference.sh, pour convertir un enregistrement vocal existant en une autre voix générée par IA. Le texte et l’émotion restent fidèles à l’original, mais le timbre et le rendu de la voix changent.

Comment installer elevenlabs-voice-changer ?

Vous n’installez pas cette skill comme une application autonome. À la place, vous :

  1. Installez le CLI infsh en suivant les instructions sur :
    https://raw.githubusercontent.com/inference-sh/skills/refs/heads/main/cli-install.md

  2. Exécutez infsh login pour vous authentifier.

  3. Facultativement, enregistrez la skill dans votre configuration de skills avec :

    npx skills add https://github.com/inferen-sh/skills --skill elevenlabs-voice-changer
    

Ensuite, vous pouvez appeler l’app ElevenLabs voice changer avec infsh app run elevenlabs/voice-changer.

Ai-je besoin d’un compte ElevenLabs pour utiliser ceci ?

La skill est un wrapper autour des modèles ElevenLabs exécutés via inference.sh. Les exigences sous-jacentes d’utilisation d’ElevenLabs (comptes, crédits, quotas, etc.) sont gérées par votre configuration inference.sh et ElevenLabs. Consultez la documentation d’inference.sh et d’ElevenLabs pour les informations à jour concernant l’accès et la facturation.

Puis-je exécuter elevenlabs-voice-changer en local sans le cloud ?

La documentation du dépôt montre la skill exécutée via infsh contre une app ElevenLabs en ligne. Elle ne documente pas de mode totalement hors ligne. Prévoyez d’avoir un accès réseau à inference.sh et au backend ElevenLabs.

Quels formats audio puis-je utiliser en entrée ?

L’exemple utilise un fichier .mp3 servi via HTTP ("https://recording.mp3"). Le format et la taille maximales sont définis par l’app ElevenLabs elle-même. Pour de meilleurs résultats, utilisez des formats audio web courants (comme mp3) hébergés sur une URL stable.

Puis-je utiliser ma propre voix personnalisée ?

La description de la skill se concentre sur le jeu de voix standard ElevenLabs (22+ voix premium) comme george et aria. Elle ne décrit pas de flux d’entraînement de voix personnalisées. Si vous avez besoin d’une voix sur mesure, consultez la documentation ElevenLabs pour voir comment les voix personnalisées s’intègrent à leur app speech-to-speech.

Est-ce adapté au changement de voix en temps réel ?

Le dépôt décrit un usage fichier du speech-to-speech via CLI, où vous fournissez l’URL d’un fichier enregistré et récupérez un fichier traité en retour. Il n’y est pas question de conversion de voix temps réel ou d’appels en direct ; considérez donc cet outil comme un service asynchrone basé sur fichiers, plutôt qu’un changeur de voix en direct.

Quand ne devrais-je pas utiliser elevenlabs-voice-changer ?

Envisagez d’autres outils si vous :

  • Avez besoin d’une vraie station audionumérique ou d’un éditeur non linéaire pour un mixage et un mastering détaillés.
  • Recherchez des effets de voix en direct et à faible latence pour le streaming ou le gaming.
  • Devez tout exécuter hors ligne, sans services cloud.

Pour une conversion de voix speech-to-speech scriptable, répétable et pilotée en CLI, elevenlabs-voice-changer est un très bon choix.

Où puis-je voir ou modifier la configuration ?

Ouvrez la skill dans le dépôt GitHub inferen-sh/skills sous :

  • tools/audio/elevenlabs-voice-changer/

Consultez SKILL.md pour voir le démarrage rapide officiel, les modèles et les options de voix, puis adaptez les commandes d’exemple à votre environnement.

Notes et avis

Aucune note pour le moment
Partagez votre avis
Connectez-vous pour laisser une note et un commentaire sur cet outil.
G
0/10000
Derniers avis
Enregistrement...