ai-rag-pipeline
par inferen-shCréez des pipelines de Retrieval Augmented Generation (RAG) qui combinent des outils de recherche web (Tavily, Exa) avec des LLM (Claude, GPT-4, Gemini via OpenRouter) en utilisant le CLI inference.sh. Idéal pour les agents de recherche, les fact-checkers et les assistants IA qui ont besoin de réponses sourcées et fiables.
Vue d’ensemble
Qu’est-ce qu’ai-rag-pipeline ?
La compétence ai-rag-pipeline vous aide à construire des workflows de Retrieval Augmented Generation (RAG) qui combinent de la recherche web en temps réel avec des modèles de langage via le CLI inference.sh (infsh). Elle fournit un schéma simple pour :
- Lancer des recherches web avec des outils comme Tavily Search et Exa
- Transmettre ces résultats de recherche à des LLM comme Claude, GPT-4 ou Gemini (via OpenRouter)
- Obtenir des réponses étayées par des sources plutôt que des suppositions non fondées
Sous le capot, ai-rag-pipeline est un modèle « shell-friendly » pour enchaîner des appels infsh app run, afin que vous puissiez rapidement prototyper des pipelines RAG de recherche, de question-réponse et de fact-checking.
À qui s’adresse cette compétence ?
ai-rag-pipeline est particulièrement adapté si vous :
- Utilisez inference.sh pour orchestrer des outils LLM en ligne de commande
- Souhaitez obtenir des réponses de type recherche avec citations ou contexte web explicite
- Construisez des agents de recherche IA ou des workflows d’assistant qui doivent rester à jour
- Avez besoin de fact-checking ou de synthèses appuyées sur le web à partir de multiples sources
Cette compétence est surtout utile pour les développeurs, les chercheurs data/IA et les utilisateurs avancés à l’aise avec Bash, les CLIs et les entrées JSON.
Quels problèmes ai-rag-pipeline résout-il ?
Cette compétence cible un cas d’usage RAG courant : combiner la recherche et les LLM de manière répétable et scriptable. Elle vous aide à :
- Aller au-delà du simple chat à un prompt pour faire de la recherche sous forme de pipeline
- Utiliser Tavily ou Exa pour récupérer des informations fraîches et pertinentes
- Envoyer ce contenu à Claude, GPT-4, Gemini (via OpenRouter) via
infsh - Produire des réponses qui peuvent être inspectées, auditées et réutilisées dans d’autres outils ou agents
Si vous voulez un workflow à la Perplexity avec vos propres outils et modèles, ai-rag-pipeline vous fournit les briques de base.
Quand ai-rag-pipeline n’est-il pas adapté ?
Envisagez d’autres compétences ou approches si :
- Vous n’utilisez pas le CLI inference.sh ou ne pouvez pas l’installer
- Vous avez besoin d’une application web ou d’une interface graphique clé en main (cette compétence est orientée CLI/Bash)
- Vous avez besoin d’un indexage approfondi, très spécialisé, sur des documents privés (cette compétence se concentre sur des patterns de recherche web en direct plutôt que sur une configuration complète de base vectorielle)
Pour de l’automatisation plus avancée autour de documents, bases de connaissances ou agents, utilisez ai-rag-pipeline comme brique RAG de bas niveau et combinez-le avec d’autres compétences.
Guide d’utilisation
Prérequis
Avant d’installer ai-rag-pipeline, assurez-vous que :
- Vous avez installé le CLI inference.sh (
infsh).- Le dépôt amont renvoie vers les instructions d’installation ici :
https://raw.githubusercontent.com/inference-sh/skills/refs/heads/main/cli-install.md
- Le dépôt amont renvoie vers les instructions d’installation ici :
- Vous pouvez exécuter
infsh loginet vous authentifier avec succès. - Vous avez accès aux outils que vous souhaitez utiliser (par ex. Tavily, Exa, modèles via OpenRouter) via inference.sh.
Installer la compétence ai-rag-pipeline
Dans un environnement compatible Agent Skills, installez la compétence avec :
npx skills add https://github.com/inferen-sh/skills --skill ai-rag-pipeline
Cette commande récupère la définition ai-rag-pipeline depuis tools/llm/ai-rag-pipeline dans le dépôt inferen-sh/skills et la rend disponible pour votre agent ou workspace.
Après l’installation, ouvrez la vue Files et consultez :
SKILL.md– description principale et démarrage rapide
Démarrage rapide : pipeline RAG simple recherche + réponse
Le fichier SKILL illustre un flux RAG minimal utilisant le CLI infsh.
- Connectez-vous à inference.sh :
infsh login
- Lancez une recherche Tavily et stockez le résultat dans une variable Bash :
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "latest AI developments 2024"}')
- Transmettez cette recherche à un LLM (exemple : un modèle Claude via OpenRouter) pour une synthèse :
infsh app run openrouter/claude-sonnet-45 --input "{
\"prompt\": \"Based on this research, summarize the key trends: $SEARCH\"
}"
Ce pattern illustre l’idée centrale d’ai-rag-pipeline :
- Retrieval –
tavily/search-assistanteffectue la recherche web - Augmentation – la sortie de recherche est injectée dans votre prompt via
$SEARCH - Generation – le modèle Claude génère un résumé ancré dans ces résultats
Vous pouvez remplacer Tavily par d’autres outils de recherche (par ex. Exa Search / Exa Answer) ou utiliser d’autres modèles (par ex. GPT-4, Gemini via OpenRouter), selon ce que supporte votre installation inference.sh.
Personnaliser le workflow RAG
Une fois le flux de base opérationnel, adaptez-le à votre cas d’usage :
1. Modifier la requête de recherche
Ajustez le champ query à votre domaine :
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "impact of LLMs on healthcare regulation"}')
2. Utiliser un autre modèle
Remplacez openrouter/claude-sonnet-45 par une autre app LLM configurée dans inference.sh, par exemple une route basée sur GPT-4 ou Gemini, si elle est disponible dans votre environnement.
3. Ajuster le style de sortie
Modifiez le texte du prompt pour demander :
- Des résumés sous forme de listes à puces
- Des listes d’avantages/inconvénients
- Des rapports de fact-checking
- Des fiches de révision avec citations
Par exemple :
infsh app run openrouter/claude-sonnet-45 --input "{
\"prompt\": \"Using the sources in $SEARCH, write a concise fact-check report. Highlight any conflicting claims and clearly list cited URLs.\"
}"
4. Envelopper le pattern dans des scripts réutilisables
Comme ai-rag-pipeline est adapté à Bash, vous pouvez placer ce pattern dans des scripts shell pour le réutiliser :
research-topic.sh– prend un sujet et renvoie un résumé fondé sur des sources webfact-check.sh– prend une affirmation, lance une recherche et produit un rapport de fact-checkingbriefing.sh– génère une note de synthèse à partir des dernières sources sur un domaine donné
Appelez ces scripts depuis vos agents ou vos jobs CI pour automatiser vos workflows de recherche.
Intégration avec des agents IA et des workflows
ai-rag-pipeline est conçu pour fonctionner avec des frameworks d’agents qui :
- Peuvent appeler Bash (la compétence autorise
Bash(infsh *)) - Ont besoin d’une étape RAG pour récupérer et ancrer le contexte avant de générer des réponses
Intégrations typiques :
- Assistants de recherche IA qui appellent automatiquement
infsh app run tavily/...avant de répondre - Agents de fact-checking qui exécutent un pipeline de recherche avant de confirmer ou d’infirmer une affirmation
- Mises à jour de base de connaissances qui récupèrent et synthétisent régulièrement les dernières actualités sur certains sujets
En standardisant ce pattern, vos agents peuvent réutiliser la même logique RAG tout en changeant les requêtes, outils ou modèles selon les besoins.
FAQ
C’est quoi ai-rag-pipeline en termes simples ?
ai-rag-pipeline est un petit modèle RAG centré sur le CLI qui apprend à vos agents à :
- Appeler des outils de recherche web via le CLI inference.sh
- Capturer la sortie de recherche
- La transmettre à un LLM pour des réponses étayées et fondées sur les sources
Ce n’est pas un framework complet : il fournit plutôt un schéma pratique que vous pouvez adapter.
Ai-je besoin d’inference.sh pour utiliser ai-rag-pipeline ?
Oui. Cette compétence est construite autour du CLI inference.sh (infsh). Le démarrage rapide et les commandes d’exemple reposent sur infsh app run .... Si vous n’utilisez pas inference.sh, cette compétence ne sera pas directement exploitable.
Quels outils et modèles puis-je utiliser avec ai-rag-pipeline ?
La description SKILL fait référence aux familles d’outils et de modèles suivantes, tant qu’ils sont exposés via votre configuration inference.sh :
- Recherche / retrieval : Tavily Search, Exa Search, Exa Answer
- LLM via OpenRouter : variantes de Claude, GPT-4, Gemini (et autres routes OpenRouter supportées par votre compte)
Consultez la sortie de infsh app list pour voir les apps disponibles dans votre environnement.
Puis-je utiliser ai-rag-pipeline pour le fact-checking ?
Oui. Le fact-checking est l’un des principaux cas d’usage visés. Un flux typique :
- Formuler l’affirmation ou la question
- Utiliser Tavily ou Exa pour collecter plusieurs sources
- Demander au LLM de comparer les sources, mettre en évidence les contradictions et fournir une conclusion argumentée
Comme la réponse est fondée sur du contenu récupéré, vous pouvez inspecter et vérifier les sources sous-jacentes.
Est-ce un framework RAG complet avec bases vectorielles ?
Non. ai-rag-pipeline se concentre sur un RAG piloté par la recherche web en direct via inference.sh. Il ne configure pas de bases de données, embeddings ou gestion d’index pour des corpus privés. Vous pouvez toutefois combiner ces patterns avec votre propre couche d’indexation si votre environnement expose ces outils via infsh.
Comment déboguer des problèmes dans le pipeline ?
En cas de problème :
- Exécutez chaque commande
infsh app run ...séparément pour vérifier qu’elle renvoie un JSON valide - Affichez ou logguez la variable
$SEARCHpour voir la sortie brute de la recherche - Simplifiez le
promptet ajoutez des instructions comme « show your reasoning and list the URLs you used » - Consultez le
SKILL.mdamont pour d’éventuels exemples de démarrage rapide mis à jour
Où en savoir plus sur les concepts RAG ?
Le fichier SKILL inclut une courte explication de RAG en trois étapes : Retrieval → Augmentation → Generation. Pour aller plus loin, utilisez directement ai-rag-pipeline :
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "introduction to retrieval augmented generation"}')
infsh app run openrouter/claude-sonnet-45 --input "{
\"prompt\": \"Using the following sources, explain RAG to a developer audience: $SEARCH\"
}"
Cela vous permet de vous former à RAG avec le même pipeline que vous prévoyez de déployer.
