agent-tools
par inferen-shagent-tools expose le CLI inference.sh au sein de votre agent pour exécuter plus de 150 apps d’IA depuis un seul endroit : génération d’images, création vidéo, LLMs, recherche, 3D et automatisation Twitter. Idéal si vous avez besoin d’un orchestrateur de workflows unifié pour FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa, OpenRouter et plus encore, sans gérer de GPU ni d’intégrations complexes.
Vue d’ensemble
Qu’est-ce qu’agent-tools ?
agent-tools est une skill d’automatisation de workflows qui connecte le CLI inference.sh (infsh) à l’environnement de votre agent. Une fois installée, votre agent peut appeler plus de 150 apps d’IA hébergées dans le cloud via une seule interface en ligne de commande, notamment :
- Des LLMs de texte et de code
- Des modèles de génération d’images
- Des modèles de création et d’édition vidéo
- Des outils 3D et créatifs
- Des outils de recherche comme Tavily et Exa
- Des utilitaires d’automatisation Twitter et autres
Comme tout s’exécute dans le cloud via inference.sh, vous n’avez pas besoin de GPU locaux ni de maintenir des intégrations séparées pour chaque fournisseur de modèles.
Capacités clés et modèles pris en charge
Une fois agent-tools configuré, votre agent peut orchestrer de nombreux modèles et APIs populaires via infsh, notamment (tels qu’indiqués dans la définition de la skill) :
- Image et vidéo : FLUX, Veo, OmniHuman et d’autres modèles media
- LLMs et chat : Gemini, Grok, Claude, ainsi que d’autres modèles disponibles via OpenRouter
- Recherche : Tavily, Exa
- Automatisation : actions liées à Twitter et autres tâches de workflow exposées comme apps inference.sh
La skill est limitée au motif d’outil Bash(infsh *), ce qui signifie que l’agent peut invoquer des commandes infsh de manière programmatique, mais n’ajoute pas lui-même de scripts personnalisés supplémentaires.
À qui s’adresse agent-tools ?
agent-tools est particulièrement adapté si vous :
- Voulez un seul CLI pour piloter différentes apps d’IA au lieu de connecter manuellement de multiples APIs
- Devez générer des images, des vidéos ou du contenu 3D à la demande depuis un agent
- Exécutez des workflows basés sur des LLMs qui nécessitent parfois des appels externes de recherche
- Automatisez Twitter ou d’autres tâches opérationnelles exposées comme apps par inference.sh
- Préférez une inférence serverless, hébergée dans le cloud, afin d’éviter la gestion de GPUs et l’hébergement de modèles
C’est particulièrement efficace pour les développeurs, power users et équipes ops qui travaillent au terminal ou utilisent déjà des agents pour automatiser des workflows.
Quand agent-tools n’est pas adapté
Envisagez une autre skill ou une intégration API directe si :
- Vous avez besoin d’une inférence strictement on-prem ou en environnement isolé (air-gapped) ; inference.sh exécute les modèles dans le cloud.
- Vous n’avez besoin que d’un seul modèle avec un SDK dédié et ne souhaitez pas l’abstraction d’un CLI générique.
- Votre plateforme d’agents ne peut pas exécuter des commandes shell en toute sécurité ou n’autorise pas l’accès à
infsh.
Si vous êtes à l’aise avec un workflow basé sur un CLI et que vous voulez une couverture de modèles aussi large que possible avec un minimum de configuration, agent-tools est conçu pour ce cas d’usage.
Guide d’utilisation
1. Installer la skill agent-tools
Pour ajouter agent-tools depuis le dépôt inferen-sh/skills, utilisez votre gestionnaire de skills. Sur les plateformes qui supportent npx skills, vous pouvez lancer :
npx skills add https://github.com/inferen-sh/skills --skill agent-tools
Cette commande récupère la définition de la skill agent-tools (y compris SKILL.md) depuis le répertoire tools/agent-tools et l’enregistre dans l’environnement de votre agent.
Après l’installation, ouvrez la vue Fichiers ou le dépôt et localisez :
tools/agent-tools/SKILL.md– description principale de la skill et des outils autorisés
Utilisez ce fichier comme référence de base pour comprendre comment la skill est censée interagir avec le CLI inference.sh.
2. Installer le CLI inference.sh (obligatoire)
agent-tools suppose que le CLI infsh est disponible dans l’environnement d’exécution. Suivez les instructions officielles fournies dans la documentation amont de la skill :
curl -fsSL https://cli.inference.sh | sh
infsh login
Ce script va :
- Détecter votre OS et votre architecture
- Télécharger le binaire approprié depuis
dist.inference.sh - Vérifier sa somme de contrôle SHA-256
- Placer le binaire
infshdans votrePATH
D’après la description amont, aucun privilège élevé, démon en arrière‑plan ou télémétrie ne sont impliqués.
Option d’installation manuelle
Si vous préférez ne pas envoyer le script directement dans sh, vous pouvez procéder à une installation manuelle comme décrit dans la documentation amont. En résumé, cela consiste à :
- Télécharger le binaire du CLI et le fichier
checkmarks.txtassocié depuishttps://dist.inference.sh/cli - Vérifier les checksums localement
- Déplacer le binaire vers un répertoire présent dans votre
PATH
Consultez les dernières instructions d’installation manuelle sur https://cli.inference.sh pour suivre la procédure recommandée à jour.
3. Se connecter et vérifier l’accès
Une fois infsh installé, authentifiez‑vous :
infsh login
Puis vérifiez que votre configuration fonctionne :
infsh help
ou exécutez une commande de test simple tirée de la documentation inference.sh. Une exécution réussie confirme que l’agent pourra appeler infsh via agent-tools.
4. Connecter agent-tools à vos workflows
Avec la skill installée et infsh fonctionnel, vérifiez que votre agent est autorisé à exécuter des commandes Bash de la forme :
infsh <app> [arguments]
La section allowed-tools de SKILL.md restreint l’usage à Bash(infsh *), ce qui indique à l’agent de n’exécuter que des commandes infsh, et non du shell arbitraire.
En pratique, vous allez :
- Configurer des prompts ou des règles expliquant à l’agent quand utiliser
infsh(par exemple pour la génération d’images ou de vidéos). - Éventuellement définir des workflows ou templates de plus haut niveau qui enchaînent plusieurs appels
infshpour des tâches complexes.
5. Schémas d’usage fréquents
Voici quelques façons courantes dont les équipes utilisent agent-tools avec inference.sh :
Orchestrer des workflows LLM + recherche
Demandez à l’agent de :
- Appeler un LLM via une app inference.sh (pour du raisonnement ou la rédaction de contenu).
- Utiliser une app Tavily ou Exa via
infshpour récupérer des informations à jour. - Appeler un autre modèle pour affiner ou structurer le résultat final.
Comme toutes les étapes sont exécutées via infsh, la skill agent-tools offre à votre agent un chemin d’exécution unique et cohérent.
Pipelines de génération d’images et de vidéos
Utilisez agent-tools dès qu’un workflow nécessite :
- Une génération d’images à partir de prompts avec des modèles comme FLUX ou d’autres disponibles via inference.sh.
- De la génération vidéo ou la création d’avatars/personnages via des apps telles que Veo ou OmniHuman lorsqu’elles sont disponibles.
L’agent peut :
- Accepter des instructions en langage naturel
- Les traduire en commandes
infsh - Retourner des liens vers les médias générés ou des métadonnées dans sa réponse
Automatisation Twitter et autres intégrations externes
Lorsque inference.sh expose des apps d’automatisation Twitter ou similaires, agent-tools permet à l’agent de les déclencher dans le cadre d’un pipeline plus large. Par exemple :
- Générer du contenu avec un LLM
- Produire une image pour la publication
- Appeler une app Twitter via
infshpour publier ou planifier le post
Votre agent devient ainsi un orchestrateur généraliste pour des campagnes pilotées par l’IA.
6. Conseils opérationnels et sécurité
- Cadrez clairement les commandes : comme seules les commandes
infshsont autorisées, soyez explicite dans vos prompts sur le moment et la manière dont l’agent doit les utiliser. - Surveillez l’usage : inference.sh exécute les apps d’IA dans le cloud ; suivez votre consommation, vos quotas et la facturation associée dans votre compte inference.sh.
- Mettez à jour régulièrement : revenez régulièrement sur
https://cli.inference.shpour vérifier les mises à jour du CLI et les nouvelles fonctionnalités susceptibles d’étendre ce que peut faire agent-tools.
FAQ
Qu’apporte concrètement agent-tools à mon agent ?
agent-tools offre à votre agent un moyen sécurisé et ciblé d’exécuter des commandes infsh afin d’accéder à plus de 150 apps d’IA via inference.sh. Au lieu d’écrire des intégrations séparées pour chaque modèle ou API, vous utilisez le CLI inference.sh comme point d’accès unique, et la skill définit comment l’agent est autorisé à l’appeler.
Ai-je besoin d’un GPU ou d’une installation de modèles en local pour utiliser agent-tools ?
Non. Selon la documentation amont, inference.sh exécute toutes les apps prises en charge dans le cloud. Vous interagissez via le CLI, et la charge de calcul est prise en charge par l’infrastructure distante. C’est l’une des principales raisons d’utiliser agent-tools avec inference.sh : vous bénéficiez de modèles puissants sans gérer de GPUs.
Comment installer agent-tools ?
Installez la skill depuis le dépôt inferen-sh/skills, par exemple :
npx skills add https://github.com/inferen-sh/skills --skill agent-tools
Puis installez et configurez le CLI inference.sh avec :
curl -fsSL https://cli.inference.sh | sh
infsh login
Assurez‑vous que infsh est bien dans votre PATH et fonctionne avant de vous appuyer sur la skill en production.
Quels types de workflows d’IA puis-je automatiser avec agent-tools ?
Vous pouvez orchestrer un large éventail de workflows, par exemple :
- Des pipelines LLM multi‑étapes avec raisonnement, rédaction et amélioration
- De la génération d’images et de vidéos pour des contenus ou pipelines créatifs
- Des processus de recherche combinant Tavily et Exa avec une synthèse via LLM
- Des automatisations sociales et opérationnelles comme la publication sur Twitter (lorsque prise en charge par les apps inference.sh)
Les possibilités exactes dépendent de l’ensemble d’apps actuellement disponibles via inference.sh.
agent-tools est‑il limité à un seul fournisseur de modèles ?
Non. agent-tools est lié à l’écosystème inference.sh, pas à un fournisseur unique. Via infsh, vous pouvez accéder à de nombreux modèles et APIs, notamment FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa et les modèles disponibles via OpenRouter, entre autres listés dans la description de la skill.
Puis-je utiliser agent-tools sans autoriser un accès shell général ?
Oui. La configuration allowed-tools de la skill limite l’usage à Bash(infsh *), ce qui signifie que l’agent est uniquement autorisé à exécuter des commandes infsh, et pas du shell arbitraire. Vous profitez ainsi du CLI tout en gardant un périmètre d’exécution réduit et auditable.
Comment garder le CLI inference.sh à jour ?
Relancez les instructions d’installation depuis https://cli.inference.sh ou utilisez tout mécanisme de mise à jour documenté à cet endroit. Comme agent-tools se contente d’appeler infsh, maintenir le CLI à jour vous garantit de disposer des dernières fonctionnalités, apps et corrections de sécurité.
Où puis-je inspecter la définition de la skill ?
Dans le dépôt inferen-sh/skills, rendez‑vous sur :
tools/agent-tools/SKILL.md
Ce fichier décrit la skill, les outils autorisés, et contient des liens vers la documentation du CLI inference.sh. Utilisez l’onglet Fichiers de votre plateforme ou GitHub pour le consulter en détail avant de déployer agent-tools dans des environnements sensibles ou à fort volume.
