I

agent-tools 会在你的智能体中暴露 inference.sh CLI,让你可以在一个入口里调用 150+ 个 AI 应用:图片生成、视频创作、LLM、大模型搜索、3D,以及 Twitter 自动化等。适合希望用统一工作流来调用 FLUX、Veo、Gemini、Grok、Claude、Seedance、OmniHuman、Tavily、Exa、OpenRouter 等多种模型,又不想自己管理 GPU 或复杂集成的场景。

Stars0
收藏0
评论0
分类工作流自动化
安装命令
npx skills add https://github.com/inferen-sh/skills --skill agent-tools
概览

概览

agent-tools 是什么?

agent-tools 是一款工作流自动化技能,它将 inference.sh CLI(infsh)接入你的智能体运行环境。安装完成后,你的智能体可以通过单一命令行接口访问 150+ 个云托管 AI 应用,包括:

  • 文本和代码类 LLM
  • 图片生成模型
  • 视频生成与剪辑模型
  • 3D 与创意工具
  • Tavily、Exa 等搜索和调研工具
  • Twitter 等自动化工具

所有推理都通过 inference.sh 在云端运行,你不需要本地 GPU,也不必为每个模型服务单独维护集成。

关键能力与支持的模型

配置好 agent-tools 后,你的智能体可以通过 infsh 调度众多主流模型和 API(如技能定义中列出的):

  • 图片与视频:FLUX、Veo、OmniHuman 等多种媒体模型
  • LLM 与对话:Gemini、Grok、Claude,以及通过 OpenRouter 提供的其他模型
  • 搜索与调研:Tavily、Exa
  • 自动化:与 Twitter 相关的操作及其他通过 inference.sh 暴露的工作流任务

该技能限定为 Bash(infsh *) 工具模式,这意味着智能体可以以编程方式调用 infsh 命令,但不会自行添加额外自定义脚本。

适合哪些人使用 agent-tools?

如果你有以下需求,agent-tools 非常适合:

  • 希望用一个 CLI 驱动各类 AI 应用,而不是手工接多套 API
  • 需要在智能体中按需生成图片、视频或 3D 内容
  • 运行基于 LLM 的工作流,偶尔需要外部搜索或调研能力
  • 想自动化 Twitter 或 inference.sh 中提供的其他运营类任务
  • 偏好无服务器、云托管推理,不想操心 GPU 与模型托管

它尤其适合开发者、高阶用户和运维团队——这些用户习惯在终端工作,或已经在用智能体自动化工作流。

什么时候不适合使用 agent-tools

如果出现以下情况,可以考虑使用其他技能或直接对接 API:

  • 你必须在本地或物理隔离(air-gapped)环境中推理;inference.sh 会在云端运行模型。
  • 你只需要一个有专用 SDK 的单一模型,不想引入通用 CLI 抽象层。
  • 你的智能体平台无法安全执行 shell 命令,或不允许访问 infsh

如果你习惯基于 CLI 的工作方式,并希望以最小配置覆盖尽可能多的模型,agent-tools 就是为这种场景设计的。

使用指南

1. 安装 agent-tools 技能

要从 inferen-sh/skills 仓库添加 agent-tools,请使用你的技能管理器。在支持 npx skills 的平台上,可以运行:

npx skills add https://github.com/inferen-sh/skills --skill agent-tools

这会从 tools/agent-tools 目录拉取 agent-tools 技能定义(包括 SKILL.md),并在你的智能体环境中注册。

安装完成后,打开文件或仓库视图,找到:

  • tools/agent-tools/SKILL.md – 技能的主要说明及可用工具列表

这个文件是技能如何与 inference.sh CLI 交互的权威参考。

2. 安装 inference.sh CLI(必需)

agent-tools 假定运行环境中已安装 infsh CLI。请按照上游文档中的官方说明安装:

curl -fsSL https://cli.inference.sh | sh
infsh login

该脚本将会:

  • 检测你的操作系统和架构
  • dist.inference.sh 下载对应的二进制文件
  • 校验 SHA-256 校验和
  • infsh 二进制加入你的 PATH

根据上游描述,这个过程不需要提升权限,也不会安装后台守护进程或开启遥测。

手动安装选项

如果你不希望将脚本直接 pipe 给 sh,可以按上游说明进行手动安装。大致步骤包括:

  • https://dist.inference.sh/cli 下载 CLI 二进制文件和对应的 checkmarks.txt
  • 在本地校验校验和
  • 将二进制文件移动到已在 PATH 中的目录

请查阅 https://cli.inference.sh 上的最新手动安装说明,以确保遵循当前推荐流程。

3. 登录并验证访问

安装好 infsh 后,先完成认证:

infsh login

然后确认安装是否正常:

infsh help

或按照 inference.sh 文档运行一个简单测试命令。如果执行成功,说明智能体可以通过 agent-tools 调用 infsh

4. 将 agent-tools 接入你的工作流

在安装好技能并确认 infsh 可用后,确保你的智能体被允许执行如下形式的 Bash 命令:

infsh <app> [arguments]

SKILL.md 中的 allowed-tools 配置会将使用范围限制为 Bash(infsh *),即只允许智能体运行 infsh 命令,而不能执行任意 shell。

在实际使用中,你通常会:

  • 配置提示词或规则,告诉智能体何时、如何使用 infsh(例如在需要生成图片或视频时)。
  • 可选地定义更高层的工作流或模板,将多个 infsh 调用串联起来处理复杂任务。

5. 常见使用模式

下述是团队常用的 agent-tools + inference.sh 使用方式:

编排 LLM 与搜索的组合工作流

让智能体执行:

  1. 通过某个 inference.sh app 调用 LLM(用于推理或撰写草稿)。
  2. 通过 infsh 使用 Tavily 或 Exa app 获取最新信息。
  3. 再调用另一个模型对最终输出进行润色或结构化。

因为所有步骤都通过 infsh 执行,agent-tools 为智能体提供了统一且一致的执行路径。

图片与视频生成流水线

当工作流需要以下能力时,可以使用 agent-tools:

  • 使用 FLUX 等模型(或 inference.sh 中其他模型)进行 prompt 驱动的图片生成。
  • 通过 Veo、OmniHuman 等 app 进行视频生成、虚拟形象 / 角色创建等(视具体可用 app 而定)。

智能体可以:

  • 接收自然语言指令
  • 将其转换为对应的 infsh 命令
  • 在响应中返回生成的媒体链接或相关元数据

Twitter 与外部自动化

inference.sh 暴露 Twitter 或类似自动化 app 的场景下,agent-tools 可以让智能体把它们嵌入更大范围的工作流中,例如:

  • 使用 LLM 生成内容
  • 生成配图
  • 通过 infsh 调用 Twitter app 进行发布或定时排程

这样,你的智能体就可以充当 AI 驱动营销与运营活动的通用执行器。

6. 运维提示与安全性

  • 明确限定命令范围:由于只允许调用 infsh,在提示词中要清晰说明智能体何时、如何调用这些命令。
  • 监控使用情况inference.sh 在云端运行 AI 应用,请在 inference.sh 账户中监控用量、配额和相关计费。
  • 定期更新:定期访问 https://cli.inference.sh 检查 CLI 更新和新功能,这些更新可能会扩展 agent-tools 能实现的能力。

常见问题(FAQ)

agent-tools 实际给我的智能体带来了什么?

agent-tools 为你的智能体提供了一种安全、聚焦的方式来运行 infsh 命令,从而通过 inference.sh 访问 150+ 个 AI 应用。你无需为每个模型或 API 单独写集成,而是把 inference.sh CLI 当作统一入口,由该技能定义智能体可以如何调用它。

使用 agent-tools 需要 GPU 或本地模型环境吗?

不需要。根据上游文档,inference.sh 会在云端运行所有支持的应用。你只需通过 CLI 交互,所有高算力推理都在远程基础设施上完成。这也是将 agent-tools 与 inference.sh 搭配使用的主要原因之一:你可以使用强大模型,而无需自己管理 GPU。

如何安装 agent-tools?

inferen-sh/skills 仓库安装技能,例如:

npx skills add https://github.com/inferen-sh/skills --skill agent-tools

然后安装并配置 inference.sh CLI:

curl -fsSL https://cli.inference.sh | sh
infsh login

在生产环境依赖该技能前,请确认 infsh 已加入 PATH 且运行正常。

我可以用 agent-tools 自动化哪些类型的 AI 工作流?

你可以编排多种工作流,例如:

  • 多步骤 LLM 流水线:推理、撰写、反复润色
  • 为内容或创意流程生成图片与视频
  • 将 Tavily、Exa 搜索与 LLM 总结结合的调研流程
  • Twitter 发帖等社交与运营自动化(前提是有相应的 inference.sh app)

具体可实现的能力取决于当前 inference.sh 中可用的 app 集合。

agent-tools 是否绑定某一家模型服务商?

不会。agent-tools 绑定的是 inference.sh 生态,而不是单一服务商。通过 infsh,你可以访问多家模型和 API,包括 FLUX、Veo、Gemini、Grok、Claude、Seedance、OmniHuman、Tavily、Exa,以及 OpenRouter 提供的模型等,具体以技能描述中列出的内容为准。

能否在不开放通用 shell 权限的情况下使用 agent-tools?

可以。技能的 allowed-tools 配置将使用范围限制为 Bash(infsh *),意味着智能体只被允许执行 infsh 命令,而不能运行任意 shell。这样既能利用 CLI,又能将执行范围控制在可审计的最小边界内。

如何保持 inference.sh CLI 为最新版本?

重新执行 https://cli.inference.sh 上的安装说明,或使用其中提供的更新机制。由于 agent-tools 只是调用 infsh,保持 CLI 更新可以让你及时获得最新功能、应用以及安全修复。

在哪里可以查看该技能的定义?

inferen-sh/skills 仓库中,进入:

  • tools/agent-tools/SKILL.md

该文件描述了技能内容、允许的工具,并提供指向 inference.sh CLI 文档的链接。建议在将 agent-tools 部署到敏感或高流量环境前,通过平台的文件视图或 GitHub 仔细阅读该文件。

评分与评论

暂无评分
分享你的评价
登录后即可为这个技能评分并发表评论。
G
0/10000
最新评论
保存中...