agent-tools
por inferen-shagent-tools expone la CLI de inference.sh dentro de tu agente para que puedas ejecutar más de 150 aplicaciones de IA desde un solo lugar: generación de imágenes, creación de video, LLMs, búsqueda, 3D y automatización de Twitter. Es ideal cuando necesitas un orquestador de flujos unificado para FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa, OpenRouter y más, sin gestionar GPUs ni integraciones complejas.
Descripción general
¿Qué es agent-tools?
agent-tools es una skill de automatización de flujos que conecta la CLI de inference.sh (infsh) con el entorno de tu agente. Una vez instalada, tu agente puede llamar a más de 150 apps de IA alojadas en la nube desde una única interfaz de línea de comandos, entre ellas:
- LLMs de texto y código
- Modelos de generación de imágenes
- Modelos de creación y edición de video
- Herramientas 3D y creativas
- Herramientas de búsqueda e investigación como Tavily y Exa
- Utilidades de automatización para Twitter y otros servicios
Como todo se ejecuta en la nube a través de inference.sh, no necesitas GPUs locales ni mantener integraciones separadas para cada proveedor de modelos.
Capacidades clave y modelos compatibles
Con agent-tools configurado, tu agente puede orquestar muchos modelos y APIs populares a través de infsh, incluidos (según la definición de la skill):
- Imagen y video: FLUX, Veo, OmniHuman y otros modelos de medios
- LLMs y chat: Gemini, Grok, Claude, además de modelos adicionales disponibles mediante OpenRouter
- Búsqueda e investigación: Tavily, Exa
- Automatización: acciones relacionadas con Twitter y otras tareas de flujo de trabajo expuestas como apps de inference.sh
La skill está limitada al patrón de herramienta Bash(infsh *), lo que significa que el agente puede invocar comandos infsh de forma programática pero no agrega scripts personalizados adicionales por sí mismo.
¿Para quién es agent-tools?
agent-tools es una muy buena opción si:
- Quieres una sola CLI para manejar múltiples apps de IA en lugar de conectar muchas APIs manualmente
- Necesitas generar imágenes, videos o contenido 3D bajo demanda desde un agente
- Ejecutas flujos basados en LLM que a veces requieren llamadas externas de búsqueda o investigación
- Automatizas Twitter u otras tareas operativas que inference.sh expone como apps
- Prefieres inferencia sin servidor, alojada en la nube, para evitar la gestión de GPUs y el hosting de modelos
Funciona especialmente bien para desarrolladores, usuarios avanzados y equipos de operaciones que trabajan desde la terminal o que ya usan agentes para automatizar flujos.
Cuándo agent-tools no es una buena opción
Plantéate usar otra skill o una integración directa con APIs si:
- Necesitas inferencia estrictamente on‑premise o en entornos aislados; inference.sh ejecuta los modelos en la nube.
- Solo necesitas un único modelo con su SDK dedicado y no quieres la abstracción de una CLI general.
- Tu plataforma de agentes no puede ejecutar comandos de shell de forma segura o no permite el acceso a
infsh.
Si te sientes cómodo con un flujo basado en CLI y quieres la mayor cobertura de modelos con la mínima configuración, agent-tools está diseñado justo para ese escenario.
Cómo usarlo
1. Instala la skill agent-tools
Para añadir agent-tools desde el repositorio inferen-sh/skills, utiliza el gestor de skills de tu plataforma. En las plataformas que admiten npx skills, puedes ejecutar:
npx skills add https://github.com/inferen-sh/skills --skill agent-tools
Esto descarga la definición de la skill agent-tools (incluido SKILL.md) desde el directorio tools/agent-tools y la registra en el entorno de tu agente.
Tras la instalación, abre la vista de Files o del repositorio y localiza:
tools/agent-tools/SKILL.md– descripción principal de la skill y herramientas permitidas
Utiliza este archivo como referencia canónica sobre cómo debe interactuar la skill con la CLI de inference.sh.
2. Instala la CLI de inference.sh (obligatorio)
agent-tools asume que la CLI infsh está disponible en el entorno de ejecución. Sigue las instrucciones oficiales del documento upstream de la skill:
curl -fsSL https://cli.inference.sh | sh
infsh login
Este script hará lo siguiente:
- Detectar tu sistema operativo y arquitectura
- Descargar el binario correcto desde
dist.inference.sh - Verificar su checksum SHA-256
- Colocar el binario
infshen tuPATH
Según la descripción upstream, no se requieren permisos elevados, demonios en segundo plano ni se activa telemetría.
Opción de instalación manual
Si prefieres no canalizar un script directamente a sh, puedes realizar una instalación manual como se describe upstream. En resumen, esto implica:
- Descargar el binario de la CLI y el archivo asociado
checkmarks.txtdesdehttps://dist.inference.sh/cli - Verificar los checksums de forma local
- Mover el binario a un directorio que esté en tu
PATH
Consulta siempre las instrucciones manuales más recientes en https://cli.inference.sh para asegurarte de seguir el proceso recomendado actual.
3. Inicia sesión y verifica el acceso
Una vez que infsh esté instalado, autentícate con:
infsh login
Luego verifica que tu configuración funciona:
infsh help
o ejecuta un comando de prueba sencillo de la documentación de inference.sh. Si se ejecuta correctamente, confirma que el agente podrá llamar a infsh a través de agent-tools.
4. Conecta agent-tools a tus flujos de trabajo
Con la skill instalada y infsh funcionando, asegúrate de que tu agente tenga permiso para ejecutar comandos Bash con el siguiente formato:
infsh <app> [arguments]
La sección allowed-tools en SKILL.md restringe el uso a Bash(infsh *), lo que indica al agente que solo puede ejecutar comandos infsh, no shell arbitrario.
En la práctica, deberás:
- Configurar prompts o reglas que indiquen al agente cuándo usar
infsh(por ejemplo, para generación de imágenes o video). - Definir opcionalmente flujos o plantillas de mayor nivel que encadenen múltiples llamadas a
infshpara trabajos complejos.
5. Patrones de uso habituales
A continuación se muestran formas típicas en que los equipos usan agent-tools con inference.sh:
Orquestar flujos de LLM y búsqueda
Haz que el agente:
- Llame a un LLM mediante una app de inference.sh (para razonamiento o redacción de contenido).
- Utilice una app de Tavily o Exa vía
infshpara recopilar información actualizada. - Llame a otro modelo para refinar o estructurar el resultado final.
Como todos los pasos se ejecutan a través de infsh, la skill agent-tools ofrece a tu agente una única ruta de ejecución coherente.
Flujos de generación de imagen y video
Usa agent-tools siempre que un flujo requiera:
- Generación de imágenes mediante prompt con modelos como FLUX u otros disponibles a través de inference.sh.
- Generación de video o creación de avatares/personajes mediante apps como Veo u OmniHuman, cuando estén disponibles.
El agente puede:
- Aceptar instrucciones en lenguaje natural
- Traducirlas a comandos
infsh - Devolver enlaces o metadatos del contenido generado como parte de su respuesta
Automatización de Twitter y otros servicios externos
Cuando inference.sh expone apps de Twitter u otras de automatización, agent-tools permite que el agente las dispare como parte de un flujo más amplio. Por ejemplo:
- Generar contenido con un LLM
- Renderizar una imagen para la publicación
- Llamar a una app de Twitter vía
infshpara publicar o programar
Esto convierte a tu agente en un ejecutor general de operaciones para campañas impulsadas por IA.
6. Consejos operativos y de seguridad
- Acota bien los comandos: Como solo se permiten llamadas a
infsh, mantén tus prompts claros y explícitos sobre cuándo y cómo debe usarlos el agente. - Supervisa el uso: inference.sh ejecuta apps de IA en la nube; controla tu uso, cuotas y cualquier facturación asociada en tu cuenta de inference.sh.
- Actualiza con regularidad: Revisa periódicamente
https://cli.inference.shpara comprobar si hay actualizaciones de la CLI y nuevas funciones que puedan ampliar lo que agent-tools puede hacer.
FAQ
¿Qué añade realmente agent-tools a mi agente?
agent-tools ofrece a tu agente una forma segura y enfocada de ejecutar comandos infsh para acceder a más de 150 apps de IA a través de inference.sh. En lugar de crear integraciones separadas para cada modelo o API, utilizas la CLI de inference.sh como único punto de entrada, y la skill define cómo se le está permitido llamarla al agente.
¿Necesito una GPU o un entorno local de modelos para usar agent-tools?
No. Según la documentación upstream, inference.sh ejecuta todas las apps compatibles en la nube. Tú interactúas mediante la CLI, y el cómputo pesado se realiza en la infraestructura remota. Esa es una de las principales razones para usar agent-tools con inference.sh: accedes a modelos potentes sin gestionar GPUs.
¿Cómo instalo agent-tools?
Instala la skill desde el repositorio inferen-sh/skills, por ejemplo:
npx skills add https://github.com/inferen-sh/skills --skill agent-tools
Luego instala y configura la CLI de inference.sh con:
curl -fsSL https://cli.inference.sh | sh
infsh login
Confirma que infsh está en tu PATH y funciona antes de depender de la skill en producción.
¿Qué tipos de flujos de IA puedo automatizar con agent-tools?
Puedes orquestar una amplia variedad de flujos, como:
- Pipelines de LLM multi‑paso con razonamiento, redacción y refinamiento
- Generación de imágenes y video para contenido o pipelines creativos
- Flujos de investigación que combinan búsqueda con Tavily y Exa y resúmenes con LLM
- Automatizaciones sociales y operativas como publicación en Twitter (cuando esté soportado por apps de inference.sh)
Las posibilidades concretas dependen del conjunto de apps disponible en cada momento a través de inference.sh.
¿Está agent-tools limitado a un proveedor de modelos en particular?
No. agent-tools está vinculado al ecosistema de inference.sh, no a un único proveedor. A través de infsh puedes acceder a muchos modelos y APIs, incluidos FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa y modelos respaldados por OpenRouter, entre otros mencionados en la descripción de la skill.
¿Puedo usar agent-tools sin permitir acceso general al shell?
Sí. La configuración allowed-tools de la skill restringe el uso a Bash(infsh *), lo que significa que el agente solo tiene permiso para ejecutar comandos infsh, no shell arbitrario. Así puedes aprovechar la CLI manteniendo un ámbito de ejecución acotado y fácil de auditar.
¿Cómo mantengo actualizada la CLI de inference.sh?
Vuelve a ejecutar las instrucciones de instalación de https://cli.inference.sh o utiliza cualquier mecanismo de actualización documentado allí. Como agent-tools solo llama a infsh, mantener la CLI al día garantiza que dispongas de las últimas funciones, apps y correcciones de seguridad.
¿Dónde puedo revisar la definición de la skill?
En el repositorio inferen-sh/skills, navega hasta:
tools/agent-tools/SKILL.md
Este archivo describe la skill, las herramientas permitidas y enlaza a la documentación de la CLI de inference.sh. Utiliza la pestaña Files de tu plataforma o GitHub para revisarlo en detalle antes de desplegar agent-tools en entornos sensibles o de alto volumen.
