agent-tools
von inferen-shagent-tools bindet die inference.sh CLI direkt in deinen Agenten ein, sodass du über eine zentrale Schnittstelle mehr als 150 KI-Apps ausführen kannst: Bildgenerierung, Videoproduktion, LLMs, Suche, 3D und Twitter-Automatisierung. Ideal, wenn du einen einheitlichen Workflow-Runner für FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa, OpenRouter und viele weitere brauchst, ohne selbst GPUs oder komplexe Integrationen zu managen.
Überblick
Was ist agent-tools?
agent-tools ist ein Workflow-Automation-Skill, der die inference.sh CLI (infsh) in deine Agent-Umgebung einbindet. Nach der Installation kann dein Agent über eine einzige Kommandozeilenoberfläche mehr als 150 cloud-gehostete KI-Apps aufrufen, darunter:
- Text- und Code-LLMs
- Bildgenerierungsmodelle
- Modelle für Videoerstellung und -bearbeitung
- 3D- und Kreativ-Tools
- Such- und Research-Tools wie Tavily und Exa
- Twitter- und andere Automatisierungs-Utilities
Da alles über inference.sh in der Cloud ausgeführt wird, brauchst du weder lokale GPUs noch separate Integrationen für jeden einzelnen Modellanbieter zu pflegen.
Zentrale Funktionen und unterstützte Modelle
Mit konfiguriertem agent-tools kann dein Agent viele populäre Modelle und APIs über infsh orchestrieren (wie in der Skill-Definition aufgeführt), darunter:
- Bild und Video: FLUX, Veo, OmniHuman und weitere Medienmodelle
- LLMs und Chat: Gemini, Grok, Claude sowie zusätzliche Modelle über OpenRouter
- Suche und Recherche: Tavily, Exa
- Automatisierung: Twitter-bezogene Aktionen und andere Workflow-Aufgaben, die als inference.sh Apps bereitgestellt werden
Der Skill ist auf das Tool-Pattern Bash(infsh *) beschränkt. Das bedeutet: Der Agent darf infsh-Befehle programmatisch ausführen, fügt aber keine eigenen Skripte hinzu.
Für wen ist agent-tools geeignet?
agent-tools passt besonders gut, wenn du:
- Eine einzige CLI nutzen möchtest, um vielfältige KI-Apps zu steuern, statt viele APIs manuell anzubinden
- Bilder, Videos oder 3D-Content direkt aus einem Agenten heraus on demand generieren musst
- LLM-basierte Workflows betreibst, die gelegentlich externe Such- oder Research-Aufrufe benötigen
- Twitter oder andere operative Aufgaben automatisieren willst, die inference.sh als Apps bereitstellt
- Serverless, cloud-gehostete Inference bevorzugst, um dich nicht um GPUs und Model-Hosting kümmern zu müssen
Der Skill eignet sich besonders für Developer, Power User und Ops-Teams, die im Terminal arbeiten oder bereits Agenten zur Workflow-Automatisierung einsetzen.
Wann ist agent-tools nicht die beste Wahl?
Ziehe einen anderen Skill oder eine direkte API-Integration in Betracht, wenn:
- Du strikt On-Prem- oder Air-Gap-Inference benötigst; inference.sh führt die Modelle in der Cloud aus.
- Du nur ein einzelnes Modell mit dediziertem SDK brauchst und keine allgemeine CLI-Abstraktion möchtest.
- Deine Agent-Plattform keine Shell-Befehle sicher ausführen kann oder keinen Zugriff auf
infsherlaubt.
Wenn du mit CLI-basierten Workflows vertraut bist und mit minimalem Setup möglichst viele Modelle nutzen willst, ist agent-tools genau für dieses Szenario entworfen.
Verwendung
1. agent-tools Skill installieren
Um agent-tools aus dem Repository inferen-sh/skills hinzuzufügen, nutze deinen Skills-Manager. Auf Plattformen, die npx skills unterstützen, kannst du Folgendes ausführen:
npx skills add https://github.com/inferen-sh/skills --skill agent-tools
Damit wird die agent-tools Skill-Definition (inklusive SKILL.md) aus dem Verzeichnis tools/agent-tools geladen und in deiner Agent-Umgebung registriert.
Nach der Installation öffne die Datei- oder Repository-Ansicht und suche:
tools/agent-tools/SKILL.md– Hauptbeschreibung des Skills und der erlaubten Tools
Nutze diese Datei als maßgebliche Referenz dafür, wie der Skill mit der inference.sh CLI interagieren soll.
2. inference.sh CLI installieren (erforderlich)
agent-tools setzt voraus, dass die infsh CLI in der Laufzeitumgebung verfügbar ist. Folge den offiziellen Anweisungen aus dem Upstream-Dokument des Skills:
curl -fsSL https://cli.inference.sh | sh
infsh login
Dieses Skript wird:
- Dein Betriebssystem und deine Architektur erkennen
- Das passende Binary von
dist.inference.shherunterladen - Die SHA-256-Checksumme verifizieren
- Das
infshBinary in deinemPATHablegen
Laut Upstream-Beschreibung sind keine erhöhten Rechte, Hintergrund-Daemons oder Telemetrie involviert.
Option für manuelle Installation
Falls du kein Skript in sh pipen möchtest, kannst du eine manuelle Installation wie im Upstream beschrieben durchführen. Kurz gesagt umfasst das:
- Herunterladen des CLI-Binary und der zugehörigen Datei
checkmarks.txtvonhttps://dist.inference.sh/cli - Lokales Verifizieren der Checksummen
- Verschieben des Binary in ein Verzeichnis, das in deinem
PATHliegt
Sieh dir die aktuellen manuellen Anweisungen unter https://cli.inference.sh an, um den jeweils empfohlenen Prozess zu befolgen.
3. Einloggen und Zugriff prüfen
Sobald infsh installiert ist, authentifiziere dich:
infsh login
Prüfe anschließend, ob dein Setup funktioniert:
infsh help
oder führe einen einfachen Testbefehl aus der inference.sh Dokumentation aus. Eine erfolgreiche Ausführung bestätigt, dass der Agent über agent-tools infsh aufrufen kann.
4. agent-tools in deine Workflows einbinden
Wenn der Skill installiert ist und infsh funktioniert, stelle sicher, dass dein Agent Bash-Befehle in der Form ausführen darf:
infsh <app> [arguments]
Der Abschnitt allowed-tools in SKILL.md beschränkt die Nutzung auf Bash(infsh *). Dadurch wird der Agent angewiesen, ausschließlich infsh-Befehle auszuführen, nicht beliebige Shell-Kommandos.
In der Praxis wirst du:
- Prompts oder Regeln konfigurieren, die dem Agent sagen, wann er
infshverwenden soll (z. B. für Bild- oder Videogenerierung). - Optional höherstufige Workflows oder Templates definieren, die mehrere
infsh-Aufrufe zu komplexen Jobs verketten.
5. Typische Nutzungsmuster
So setzen Teams agent-tools zusammen mit inference.sh typischerweise ein:
LLM- und Such-Workflows orchestrieren
Lass den Agenten:
- Ein LLM über eine inference.sh App aufrufen (für Reasoning oder zum Entwurf von Inhalten).
- Eine Tavily- oder Exa-App über
infshnutzen, um aktuelle Informationen zu sammeln. - Ein weiteres Modell aufrufen, um das finale Ergebnis zu verfeinern oder zu strukturieren.
Da alle Schritte über infsh ausgeführt werden, bietet der agent-tools Skill deinem Agenten einen einheitlichen, konsistenten Ausführungspfad.
Pipelines für Bild- und Videogenerierung
Nutze agent-tools immer dann, wenn ein Workflow Folgendes benötigt:
- Prompt-basierte Bildgenerierung mit Modellen wie FLUX oder anderen, die über inference.sh verfügbar sind.
- Videogenerierung oder Avatar-/Charaktererstellung über Apps wie Veo oder OmniHuman (sofern verfügbar).
Der Agent kann:
- Natürlichsprachliche Anweisungen entgegennehmen
- Diese in
infsh-Kommandos übersetzen - Generierte Medienlinks oder Metadaten als Teil seiner Antwort zurückgeben
Twitter- und externe Automatisierung
Wenn inference.sh Twitter- oder ähnliche Automatisierungs-Apps bereitstellt, ermöglicht agent-tools dem Agenten, diese als Teil größerer Pipelines auszulösen. Zum Beispiel:
- Inhalte mit einem LLM generieren
- Ein Bild für den Post rendern
- Eine Twitter-App via
infshaufrufen, um zu veröffentlichen oder zu planen
Dadurch wird dein Agent zu einem allgemeinen Operations-Runner für KI-gestützte Kampagnen.
6. Betriebshinweise und Sicherheit
- Befehle klar eingrenzen: Da nur
infsh-Aufrufe erlaubt sind, sollten deine Prompts klar festlegen, wann und wie der Agent sie nutzen soll. - Nutzung überwachen: inference.sh führt KI-Apps in der Cloud aus; überwache Nutzung, Quoten und ggf. entstehende Kosten in deinem inference.sh Account.
- Regelmäßig aktualisieren: Besuche
https://cli.inference.shregelmäßig, um nach CLI-Updates und neuen Features zu sehen, die den Funktionsumfang von agent-tools erweitern können.
FAQ
Was bringt agent-tools meinem Agenten konkret?
agent-tools bietet deinem Agenten eine sichere, fokussierte Möglichkeit, infsh-Befehle auszuführen und so auf über 150 KI-Apps via inference.sh zuzugreifen. Statt für jedes Modell oder jede API eine eigene Integration zu schreiben, nutzt du die inference.sh CLI als einheitliches Gateway, und der Skill definiert, wie dein Agent sie aufrufen darf.
Brauche ich eine GPU oder lokale Modell-Setups, um agent-tools zu nutzen?
Nein. Laut Upstream-Dokumentation führt inference.sh alle unterstützten Apps in der Cloud aus. Du interagierst über die CLI, und die rechenintensiven Teile laufen auf der entfernten Infrastruktur. Das ist einer der Hauptgründe, agent-tools mit inference.sh einzusetzen: Du erhältst Zugang zu leistungsfähigen Modellen, ohne selbst GPUs managen zu müssen.
Wie installiere ich agent-tools?
Installiere den Skill aus dem Repository inferen-sh/skills, zum Beispiel:
npx skills add https://github.com/inferen-sh/skills --skill agent-tools
Installiere und konfiguriere anschließend die inference.sh CLI mit:
curl -fsSL https://cli.inference.sh | sh
infsh login
Stelle sicher, dass infsh in deinem PATH liegt und funktioniert, bevor du den Skill in produktiven Umgebungen einsetzt.
Welche Arten von KI-Workflows kann ich mit agent-tools automatisieren?
Du kannst eine Vielzahl von Workflows orchestrieren, zum Beispiel:
- Mehrstufige LLM-Pipelines mit Reasoning, Entwurf und Verfeinerung
- Bild- und Videogenerierung für Content- oder Kreativ-Pipelines
- Research-Flows, die Tavily- und Exa-Suche mit LLM-Summarization kombinieren
- Social- und Operations-Automatisierung wie Twitter-Posting (wo durch inference.sh Apps unterstützt)
Die genauen Möglichkeiten hängen vom jeweils verfügbaren App-Set über inference.sh ab.
Ist agent-tools auf einen bestimmten Modellanbieter beschränkt?
Nein. agent-tools ist an das inference.sh Ökosystem gebunden, nicht an einen einzelnen Anbieter. Über infsh kannst du auf viele Modelle und APIs zugreifen, darunter FLUX, Veo, Gemini, Grok, Claude, Seedance, OmniHuman, Tavily, Exa und OpenRouter-basierte Modelle sowie weitere, die in der Skill-Beschreibung aufgeführt sind.
Kann ich agent-tools nutzen, ohne generellen Shell-Zugriff zu erlauben?
Ja. Die allowed-tools Konfiguration des Skills beschränkt die Nutzung auf Bash(infsh *). Das bedeutet, der Agent darf nur infsh-Befehle ausführen, keine beliebigen Shell-Kommandos. So profitierst du von der CLI, hältst den Ausführungsumfang aber eng begrenzt und gut auditierbar.
Wie halte ich die inference.sh CLI aktuell?
Führe die Installationsanweisungen unter https://cli.inference.sh erneut aus oder nutze einen dort dokumentierten Update-Mechanismus. Da agent-tools lediglich infsh aufruft, stellst du durch ein aktualisiertes CLI sicher, dass du die neuesten Features, Apps und Sicherheitsfixes erhältst.
Wo kann ich die Skill-Definition einsehen?
Im Repository inferen-sh/skills findest du sie unter:
tools/agent-tools/SKILL.md
Diese Datei beschreibt den Skill, die erlaubten Tools und verlinkt auf die inference.sh CLI-Dokumentation. Nutze den Files-Tab deiner Plattform oder GitHub, um sie vollständig zu prüfen, bevor du agent-tools in sensiblen oder stark genutzten Umgebungen einsetzt.
