agent-tools
作者 inferen-shagent-tools 會在你的 agent 內部提供 inference.sh CLI,讓你在同一個介面中執行超過 150 款 AI 應用:圖像生成、影片製作、LLM、搜尋、3D,以及 Twitter 自動化等。非常適合需要統一工作流程執行器、但又不想自行管理 GPU 或複雜整合,卻同時要用到 FLUX、Veo、Gemini、Grok、Claude、Seedance、OmniHuman、Tavily、Exa、OpenRouter 等多種服務的情境。
概觀
什麼是 agent-tools?
agent-tools 是一個工作流程自動化技能,會把 inference.sh CLI(infsh)接入你的 agent 執行環境。安裝完成後,你的 agent 就能透過單一指令介面呼叫超過 150 個雲端託管的 AI 應用,包括:
- 文字與程式碼 LLM
- 圖像生成模型
- 影片製作與剪輯模型
- 3D 與創意工具
- 像 Tavily、Exa 這類搜尋與研究工具
- Twitter 及其他自動化工具
由於所有運算都透過 inference.sh 在雲端執行,你不需要本機 GPU,也不必為每一家模型供應商各自維護一套整合。
主要功能與支援的模型
設定好 agent-tools 之後,你的 agent 可以透過 infsh 協調許多常見的模型與 API(如技能定義中所列),包含:
- 圖像與影片:FLUX、Veo、OmniHuman 及其他媒體相關模型
- LLM 與對話:Gemini、Grok、Claude,以及透過 OpenRouter 提供的其他模型
- 搜尋與研究:Tavily、Exa
- 自動化:Twitter 相關操作及其他以 inference.sh app 形式提供的工作流程任務
此技能限定使用 Bash(infsh *) 工具模式,也就是說 agent 可以以程式方式呼叫 infsh 指令,但不會自行新增額外的自訂腳本。
適合使用 agent-tools 的對象
如果你符合以下狀況,agent-tools 會非常適合:
- 想用單一 CLI 來驅動各式 AI 應用,而不是手動串接一堆 API
- 需要在 agent 內即時產生圖像、影片或 3D 內容
- 有基於 LLM 的工作流程,偶爾需要額外做外部搜尋或研究查詢
- 想自動化 Twitter 或其他 inference.sh 以 app 形式提供的營運工作
- 偏好無伺服器、雲端託管的推論服務,避免自己處理 GPU 與模型託管
它特別適合經常使用終端機的開發者、進階使用者,以及已經用 agent 來自動化流程的營運/ DevOps 團隊。
何時不適合使用 agent-tools
若出現以下情況,可能需考慮改用其他技能或直接整合 API:
- 你必須嚴格採用 on-prem 或封閉(air-gapped)環境;inference.sh 會在雲端執行模型。
- 你只需要單一模型,且已有對應 SDK,不希望再多一層通用 CLI 抽象層。
- 你的 agent 平台無法安全地執行 shell 指令,或不允許存取
infsh。
如果你對 CLI 型工作流程感到自在,並且希望用最低門檻取得最廣泛的模型覆蓋範圍,agent-tools 就是為這樣的情境設計的。
使用方式
1. 安裝 agent-tools 技能
若要從 inferen-sh/skills repository 新增 agent-tools,請使用你的技能管理工具。在支援 npx skills 的平台上,可以執行:
npx skills add https://github.com/inferen-sh/skills --skill agent-tools
此指令會從 tools/agent-tools 目錄抓取 agent-tools 的技能定義(包含 SKILL.md),並註冊到你的 agent 執行環境中。
安裝完成後,打開檔案或 repository 檢視,找到:
tools/agent-tools/SKILL.md– 技能的主要說明與允許使用的工具列表
請把這個檔案當成權威參考,用來了解此技能預期如何與 inference.sh CLI 互動。
2. 安裝 inference.sh CLI(必要步驟)
agent-tools 假設執行環境已可使用 infsh CLI。請依照技能上游文件中的官方指示安裝:
curl -fsSL https://cli.inference.sh | sh
infsh login
這段安裝腳本會:
- 偵測你的作業系統與硬體架構
- 從
dist.inference.sh下載正確的執行檔 - 驗證其 SHA-256 校驗碼
- 將
infsh可執行檔放到你的PATH中
依上游說明,此過程不需要提升權限、不會安裝背景常駐程式,也不會啟用遙測。
手動安裝選項
如果你不希望把 script 透過 pipe 直接交給 sh,可以改採上游文件說明的手動安裝方式。大致流程包括:
- 從
https://dist.inference.sh/cli下載 CLI 執行檔以及對應的checkmarks.txt檔案 - 在本機驗證檔案的校驗碼
- 將執行檔移到有包含在
PATH的目錄
請參考 https://cli.inference.sh 上最新的手動安裝說明,確保遵循目前建議的流程。
3. 登入並驗證使用權限
安裝好 infsh 之後,先進行驗證:
infsh login
接著確認環境是否正常運作:
infsh help
或依照 inference.sh 文件執行一個簡單測試指令。若能成功執行,即代表 agent 之後可以透過 agent-tools 呼叫 infsh。
4. 將 agent-tools 接入你的工作流程
當技能安裝完成且 infsh 可正常使用後,請確認你的 agent 被允許執行下列形式的 Bash 指令:
infsh <app> [arguments]
SKILL.md 中的 allowed-tools 區段會限制使用範圍為 Bash(infsh *),也就是只允許 agent 執行 infsh 指令,而不是任意 shell 指令。
實務上,你會:
- 設定 prompt 或規則,告訴 agent 什麼時候應該使用
infsh(例如需要產生圖像或影片時)。 - 視需要定義更高階的工作流程或範本,將多個
infsh呼叫串成複雜作業。
5. 常見使用模式
以下是團隊常見的 agent-tools 搭配 inference.sh 的用法:
編排 LLM 與搜尋工作流程
可以讓 agent:
- 透過某個 inference.sh app 呼叫 LLM(用於推理或撰寫內容初稿)。
- 再透過
infsh呼叫 Tavily 或 Exa app,取得最新相關資訊。 - 之後再呼叫另一個模型,將結果精緻化或整理成需要的結構。
由於所有步驟都是透過 infsh 執行,agent-tools 會為你的 agent 提供單一且一致的執行通道。
圖像與影片生成流程
當工作流程需要下列任一項時,可以使用 agent-tools:
- 使用 FLUX 或其他透過 inference.sh 提供的模型,依提示生成圖像。
- 使用 Veo、OmniHuman 等 app(若有提供)生成影片或角色/虛擬分身。
agent 可以:
- 接受自然語言指示
- 把指示轉換成
infsh指令 - 在回應中提供生成媒體的連結或相關中繼資料
Twitter 與外部自動化
在 inference.sh 有提供 Twitter 或類似自動化 app 的情況下,agent-tools 能讓 agent 在更大的流程中觸發這些操作。例如:
- 先用 LLM 生成貼文內容
- 再生成對應的圖像
- 最後透過
infsh呼叫 Twitter app 發文或排程
這樣你的 agent 就能成為一個通用的營運執行器,支援各種 AI 驅動的行銷或營運活動。
6. 營運提示與安全注意事項
- 明確界定指令範圍:由於只允許
infsh呼叫,請在 prompt 中清楚說明 agent 何時、如何使用這些指令。 - 監控使用情況:inference.sh 會在雲端執行 AI 應用;請在你的 inference.sh 帳號中留意使用量、額度與可能的計費情況。
- 定期更新:請不定期造訪
https://cli.inference.sh,查看 CLI 更新與新功能,善用 agent-tools 可支援的最新能力。
常見問題(FAQ)
agent-tools 實際上為我的 agent 帶來什麼?
agent-tools 為你的 agent 提供一個安全且聚焦的方式來執行 infsh 指令,藉此透過 inference.sh 存取超過 150 個 AI 應用。你不需要為每個模型或 API 分別寫整合程式,而是把 inference.sh CLI 當作統一的入口,由這個技能來定義 agent 可以如何呼叫它。
使用 agent-tools 需要 GPU 或本機模型環境嗎?
不需要。根據上游文件說明,inference.sh 會在雲端執行所有支援的應用。你只需透過 CLI 互動,繁重的運算都在遠端基礎設施上完成。這也是搭配 inference.sh 使用 agent-tools 的主要好處之一:你可以使用強大模型,而不必自己管理 GPU。
我要如何安裝 agent-tools?
請從 inferen-sh/skills repository 安裝此技能,例如:
npx skills add https://github.com/inferen-sh/skills --skill agent-tools
接著安裝並設定 inference.sh CLI:
curl -fsSL https://cli.inference.sh | sh
infsh login
在正式環境依賴此技能之前,請先確認 infsh 已在你的 PATH 中且運作正常。
我可以用 agent-tools 自動化哪些類型的 AI 工作流程?
你可以協調執行各式各樣的工作流程,例如:
- 多步驟 LLM 流程,包括推理、草稿撰寫與結果潤飾
- 用於內容製作或創意流程的圖像與影片生成
- 結合 Tavily、Exa 搜尋與 LLM 摘要的研究流程
- 例如 Twitter 發文等社群與營運自動化(前提是 inference.sh app 有支援)
實際可行的情境會依目前 inference.sh 上提供的 app 清單而定。
agent-tools 是否被綁定在某一家特定模型供應商?
不會。agent-tools 綁定的是 inference.sh 這個生態系,而不是單一供應商。透過 infsh,你可以存取多種模型與 API,包括 FLUX、Veo、Gemini、Grok、Claude、Seedance、OmniHuman、Tavily、Exa,以及透過 OpenRouter 提供的其他模型等,詳細列表請以技能描述為準。
我可以在不開放一般 shell 存取的情況下使用 agent-tools 嗎?
可以。此技能的 allowed-tools 設定會把使用範圍限制在 Bash(infsh *),也就是 agent 只被允許執行 infsh 指令,而不是任意 shell。如此一來,你可以享受 CLI 帶來的彈性,同時維持執行範圍的聚焦與可稽核性。
要如何讓 inference.sh CLI 維持在最新版本?
重新執行 https://cli.inference.sh 上的安裝指令,或使用該網站上記載的更新機制。由於 agent-tools 只是呼叫 infsh,保持 CLI 為最新版本即可確保你使用到最新功能、可用 app,以及安全性修補。
我可以在哪裡查看這個技能的定義?
在 inferen-sh/skills repository 中,請前往:
tools/agent-tools/SKILL.md
此檔案會說明技能內容、允許的工具,以及連結到 inference.sh CLI 文件。在將 agent-tools 部署到敏感或高流量環境前,請透過平台上的 Files 檢視或 GitHub 詳讀該檔案。
