agent-tools
por inferen-shagent-tools expõe o CLI do inference.sh dentro do seu agente para que você possa rodar mais de 150 apps de IA em um só lugar: geração de imagens, criação de vídeos, LLMs, busca, 3D e automação para Twitter. Ideal quando você precisa de um orquestrador de fluxos unificado para FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa, OpenRouter e muito mais, sem gerenciar GPUs ou integrações complexas.
Visão geral
O que é o agent-tools?
agent-tools é uma skill de automação de workflows que conecta o CLI do inference.sh (infsh) ao ambiente do seu agente. Depois de instalado, seu agente pode chamar mais de 150 apps de IA hospedados na nuvem a partir de uma única interface de linha de comando, incluindo:
- LLMs de texto e código
- Modelos de geração de imagem
- Modelos de criação e edição de vídeo
- Ferramentas 3D e criativas
- Ferramentas de busca e pesquisa como Tavily e Exa
- Utilitários de automação para Twitter e outros serviços
Como tudo roda na nuvem via inference.sh, você não precisa de GPUs locais nem de manter integrações separadas para cada provedor de modelo.
Principais capacidades e modelos compatíveis
Com o agent-tools configurado, seu agente pode orquestrar vários modelos e APIs populares via infsh, incluindo (conforme listado na definição da skill):
- Imagem e vídeo: FLUX, Veo, OmniHuman e outros modelos de mídia
- LLMs e chat: Gemini, Grok, Claude, além de modelos adicionais disponíveis via OpenRouter
- Busca e pesquisa: Tavily, Exa
- Automação: ações relacionadas ao Twitter e outras tarefas de workflow expostas como apps do inference.sh
A skill é limitada ao padrão de ferramenta Bash(infsh *), ou seja, o agente pode invocar comandos infsh programaticamente, mas não adiciona scripts personalizados por conta própria.
Para quem o agent-tools é indicado?
agent-tools é especialmente indicado se você:
- Quer um único CLI para dirigir diversos apps de IA em vez de conectar várias APIs manualmente
- Precisa gerar imagens, vídeos ou conteúdo 3D sob demanda de dentro de um agente
- Roda workflows baseados em LLM que às vezes exigem chamadas externas de busca ou pesquisa
- Automatiza tarefas no Twitter ou outras operações que o inference.sh expõe como apps
- Prefere inferência serverless, hospedada em nuvem, para evitar cuidar de GPU e hospedagem de modelos
Ele funciona particularmente bem para desenvolvedores, usuários avançados e equipes de operações que vivem no terminal ou já usam agentes para automatizar workflows.
Quando o agent-tools não é uma boa opção
Considere outra skill ou uma integração direta de API se:
- Você exige inferência estritamente on-prem ou em ambiente isolado (air-gapped); o inference.sh executa os modelos na nuvem.
- Você só precisa de um único modelo com SDK dedicado e não quer a camada de abstração de um CLI genérico.
- Sua plataforma de agentes não consegue executar comandos de shell com segurança ou não permite acesso ao
infsh.
Se você se sente à vontade com um fluxo baseado em CLI e quer a maior cobertura de modelos com o mínimo de setup, o agent-tools foi feito para esse cenário.
Como usar
1. Instale a skill agent-tools
Para adicionar o agent-tools a partir do repositório inferen-sh/skills, use o gerenciador de skills da sua plataforma. Em plataformas que suportam npx skills, você pode rodar:
npx skills add https://github.com/inferen-sh/skills --skill agent-tools
Isso baixa a definição da skill agent-tools (incluindo SKILL.md) do diretório tools/agent-tools e a registra no ambiente do seu agente.
Depois da instalação, abra a visualização de Files ou do repositório e localize:
tools/agent-tools/SKILL.md– descrição principal da skill e ferramentas permitidas
Use esse arquivo como referência oficial de como a skill deve interagir com o CLI do inference.sh.
2. Instale o inference.sh CLI (obrigatório)
agent-tools pressupõe que o CLI infsh esteja disponível no ambiente de execução. Siga as instruções oficiais no documento upstream da skill:
curl -fsSL https://cli.inference.sh | sh
infsh login
Esse script irá:
- Detectar seu sistema operacional e arquitetura
- Baixar o binário correto de
dist.inference.sh - Verificar o checksum SHA-256
- Colocar o binário
infshno seuPATH
Segundo a descrição upstream, não há necessidade de permissões elevadas, daemons em background ou telemetria.
Opção de instalação manual
Se você preferir não fazer pipe de um script para o sh, pode fazer a instalação manual conforme descrito no upstream. Em resumo, isso envolve:
- Baixar o binário do CLI e o arquivo
checkmarks.txtassociado dehttps://dist.inference.sh/cli - Verificar os checksums localmente
- Mover o binário para um diretório que esteja no seu
PATH
Consulte as instruções manuais mais recentes em https://cli.inference.sh para garantir que você esteja seguindo o processo recomendado atual.
3. Faça login e verifique o acesso
Com o infsh instalado, autentique-se:
infsh login
Depois, verifique se o setup está funcionando:
infsh help
ou rode um comando de teste simples da documentação do inference.sh. Uma execução bem-sucedida confirma que o agente conseguirá chamar o infsh via agent-tools.
4. Conecte o agent-tools aos seus workflows
Com a skill instalada e o infsh funcionando, garanta que seu agente esteja autorizado a executar comandos Bash no formato:
infsh <app> [arguments]
A seção allowed-tools em SKILL.md restringe o uso a Bash(infsh *), o que instrui o agente a rodar apenas comandos infsh, e não shell arbitrário.
Na prática, você irá:
- Configurar prompts ou regras dizendo ao agente quando usar
infsh(por exemplo, para geração de imagem ou vídeo). - Opcionalmente definir workflows ou templates de mais alto nível encadeando múltiplas chamadas
infshpara jobs complexos.
5. Padrões comuns de uso
Veja algumas formas típicas como equipes usam agent-tools com inference.sh:
Orquestrar workflows de LLM e busca
Faça o agente:
- Chamar um LLM via um app do inference.sh (para raciocínio ou rascunho de conteúdo).
- Usar um app Tavily ou Exa via
infshpara coletar informações atualizadas. - Chamar outro modelo para refinar ou estruturar o resultado final.
Como todas as etapas são executadas via infsh, a skill agent-tools oferece ao seu agente um caminho de execução único e consistente.
Pipelines de geração de imagem e vídeo
Use o agent-tools sempre que um workflow precisar de:
- Geração de imagens por prompt com modelos como FLUX ou outros disponíveis via inference.sh.
- Geração de vídeo ou criação de avatar/personagem com apps como Veo ou OmniHuman, quando disponíveis.
O agente pode:
- Receber instruções em linguagem natural
- Traduzir essas instruções em comandos
infsh - Retornar links ou metadados da mídia gerada como parte da resposta
Automação para Twitter e outros serviços externos
Onde o inference.sh expõe apps de automação para Twitter ou serviços similares, o agent-tools permite que o agente os acione como parte de um pipeline mais amplo. Por exemplo:
- Gerar conteúdo com um LLM
- Renderizar uma imagem para o post
- Chamar um app de Twitter via
infshpara publicar ou agendar
Isso transforma seu agente em um orquestrador geral de operações para campanhas impulsionadas por IA.
6. Dicas operacionais e segurança
- Delimite bem os comandos: Como apenas chamadas
infshsão permitidas, deixe seus prompts explícitos sobre quando e como o agente deve usá-las. - Monitore o uso: O inference.sh roda apps de IA na nuvem; acompanhe seu uso, cotas e qualquer cobrança associada na sua conta inference.sh.
- Mantenha tudo atualizado: Visite
https://cli.inference.shperiodicamente para conferir atualizações do CLI e novos recursos que possam ampliar o que o agent-tools consegue fazer.
FAQ
O que o agent-tools realmente adiciona ao meu agente?
agent-tools oferece ao seu agente uma forma segura e focada de executar comandos infsh, permitindo acesso a mais de 150 apps de IA via inference.sh. Em vez de escrever integrações separadas para cada modelo ou API, você usa o CLI do inference.sh como um gateway único, e a skill define como o agente tem permissão para chamá-lo.
Preciso de GPU ou de modelos locais para usar o agent-tools?
Não. De acordo com a documentação upstream, o inference.sh roda todos os apps compatíveis na nuvem. Você interage via CLI, e o processamento pesado acontece na infraestrutura remota. Esse é um dos principais motivos para usar agent-tools com inference.sh: você acessa modelos poderosos sem gerenciar GPUs.
Como instalo o agent-tools?
Instale a skill a partir do repositório inferen-sh/skills, por exemplo:
npx skills add https://github.com/inferen-sh/skills --skill agent-tools
Depois, instale e configure o CLI do inference.sh usando:
curl -fsSL https://cli.inference.sh | sh
infsh login
Confirme que o infsh está no seu PATH e funcionando antes de depender da skill em produção.
Que tipos de workflows de IA posso automatizar com o agent-tools?
Você pode orquestrar uma ampla variedade de workflows, como:
- Pipelines multi-etapas com LLM para raciocínio, rascunho e refinamento
- Geração de imagem e vídeo para conteúdos ou pipelines criativos
- Fluxos de pesquisa combinando busca Tavily e Exa com sumarização via LLM
- Automações sociais e operacionais, como postagem no Twitter (quando suportado pelos apps do inference.sh)
As possibilidades exatas dependem do conjunto de apps atualmente disponíveis via inference.sh.
O agent-tools é limitado a um provedor de modelo específico?
Não. O agent-tools está ligado ao ecossistema inference.sh, não a um único provedor. Por meio do infsh, você pode acessar diversos modelos e APIs, incluindo FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa e modelos via OpenRouter, entre outros listados na descrição da skill.
Posso usar o agent-tools sem liberar acesso geral ao shell?
Sim. A configuração de allowed-tools da skill restringe o uso a Bash(infsh *), o que significa que o agente só tem permissão para executar comandos infsh, e não shell arbitrário. Isso permite aproveitar o CLI mantendo o escopo de execução estreito e auditável.
Como mantenho o inference.sh CLI atualizado?
Execute novamente as instruções de instalação de https://cli.inference.sh ou use qualquer mecanismo de update documentado lá. Como o agent-tools apenas chama o infsh, manter o CLI atualizado garante acesso aos recursos mais recentes, novos apps e correções de segurança.
Onde posso inspecionar a definição da skill?
No repositório inferen-sh/skills, navegue até:
tools/agent-tools/SKILL.md
Esse arquivo descreve a skill, as ferramentas permitidas e traz links para a documentação do inference.sh CLI. Use a aba Files da sua plataforma ou o GitHub para revisar tudo com calma antes de implantar o agent-tools em ambientes sensíveis ou de alto volume.
