I

ai-rag-pipeline

par inferen-sh

Créez des pipelines de Retrieval Augmented Generation (RAG) qui combinent des outils de recherche web (Tavily, Exa) avec des LLM (Claude, GPT-4, Gemini via OpenRouter) en utilisant le CLI inference.sh. Idéal pour les agents de recherche, les fact-checkers et les assistants IA qui ont besoin de réponses sourcées et fiables.

Étoiles0
Favoris0
Commentaires0
Ajouté27 mars 2026
CatégorieRAG Workflows
Commande d’installation
npx skills add https://github.com/inferen-sh/skills --skill ai-rag-pipeline
Vue d’ensemble

Vue d’ensemble

Qu’est-ce qu’ai-rag-pipeline ?

La compétence ai-rag-pipeline vous aide à construire des workflows de Retrieval Augmented Generation (RAG) qui combinent de la recherche web en temps réel avec des modèles de langage via le CLI inference.sh (infsh). Elle fournit un schéma simple pour :

  • Lancer des recherches web avec des outils comme Tavily Search et Exa
  • Transmettre ces résultats de recherche à des LLM comme Claude, GPT-4 ou Gemini (via OpenRouter)
  • Obtenir des réponses étayées par des sources plutôt que des suppositions non fondées

Sous le capot, ai-rag-pipeline est un modèle « shell-friendly » pour enchaîner des appels infsh app run, afin que vous puissiez rapidement prototyper des pipelines RAG de recherche, de question-réponse et de fact-checking.

À qui s’adresse cette compétence ?

ai-rag-pipeline est particulièrement adapté si vous :

  • Utilisez inference.sh pour orchestrer des outils LLM en ligne de commande
  • Souhaitez obtenir des réponses de type recherche avec citations ou contexte web explicite
  • Construisez des agents de recherche IA ou des workflows d’assistant qui doivent rester à jour
  • Avez besoin de fact-checking ou de synthèses appuyées sur le web à partir de multiples sources

Cette compétence est surtout utile pour les développeurs, les chercheurs data/IA et les utilisateurs avancés à l’aise avec Bash, les CLIs et les entrées JSON.

Quels problèmes ai-rag-pipeline résout-il ?

Cette compétence cible un cas d’usage RAG courant : combiner la recherche et les LLM de manière répétable et scriptable. Elle vous aide à :

  • Aller au-delà du simple chat à un prompt pour faire de la recherche sous forme de pipeline
  • Utiliser Tavily ou Exa pour récupérer des informations fraîches et pertinentes
  • Envoyer ce contenu à Claude, GPT-4, Gemini (via OpenRouter) via infsh
  • Produire des réponses qui peuvent être inspectées, auditées et réutilisées dans d’autres outils ou agents

Si vous voulez un workflow à la Perplexity avec vos propres outils et modèles, ai-rag-pipeline vous fournit les briques de base.

Quand ai-rag-pipeline n’est-il pas adapté ?

Envisagez d’autres compétences ou approches si :

  • Vous n’utilisez pas le CLI inference.sh ou ne pouvez pas l’installer
  • Vous avez besoin d’une application web ou d’une interface graphique clé en main (cette compétence est orientée CLI/Bash)
  • Vous avez besoin d’un indexage approfondi, très spécialisé, sur des documents privés (cette compétence se concentre sur des patterns de recherche web en direct plutôt que sur une configuration complète de base vectorielle)

Pour de l’automatisation plus avancée autour de documents, bases de connaissances ou agents, utilisez ai-rag-pipeline comme brique RAG de bas niveau et combinez-le avec d’autres compétences.

Guide d’utilisation

Prérequis

Avant d’installer ai-rag-pipeline, assurez-vous que :

  • Vous avez installé le CLI inference.sh (infsh).
    • Le dépôt amont renvoie vers les instructions d’installation ici :
      • https://raw.githubusercontent.com/inference-sh/skills/refs/heads/main/cli-install.md
  • Vous pouvez exécuter infsh login et vous authentifier avec succès.
  • Vous avez accès aux outils que vous souhaitez utiliser (par ex. Tavily, Exa, modèles via OpenRouter) via inference.sh.

Installer la compétence ai-rag-pipeline

Dans un environnement compatible Agent Skills, installez la compétence avec :

npx skills add https://github.com/inferen-sh/skills --skill ai-rag-pipeline

Cette commande récupère la définition ai-rag-pipeline depuis tools/llm/ai-rag-pipeline dans le dépôt inferen-sh/skills et la rend disponible pour votre agent ou workspace.

Après l’installation, ouvrez la vue Files et consultez :

  • SKILL.md – description principale et démarrage rapide

Démarrage rapide : pipeline RAG simple recherche + réponse

Le fichier SKILL illustre un flux RAG minimal utilisant le CLI infsh.

  1. Connectez-vous à inference.sh :
infsh login
  1. Lancez une recherche Tavily et stockez le résultat dans une variable Bash :
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "latest AI developments 2024"}')
  1. Transmettez cette recherche à un LLM (exemple : un modèle Claude via OpenRouter) pour une synthèse :
infsh app run openrouter/claude-sonnet-45 --input "{
  \"prompt\": \"Based on this research, summarize the key trends: $SEARCH\"
}"

Ce pattern illustre l’idée centrale d’ai-rag-pipeline :

  • Retrievaltavily/search-assistant effectue la recherche web
  • Augmentation – la sortie de recherche est injectée dans votre prompt via $SEARCH
  • Generation – le modèle Claude génère un résumé ancré dans ces résultats

Vous pouvez remplacer Tavily par d’autres outils de recherche (par ex. Exa Search / Exa Answer) ou utiliser d’autres modèles (par ex. GPT-4, Gemini via OpenRouter), selon ce que supporte votre installation inference.sh.

Personnaliser le workflow RAG

Une fois le flux de base opérationnel, adaptez-le à votre cas d’usage :

1. Modifier la requête de recherche

Ajustez le champ query à votre domaine :

SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "impact of LLMs on healthcare regulation"}')

2. Utiliser un autre modèle

Remplacez openrouter/claude-sonnet-45 par une autre app LLM configurée dans inference.sh, par exemple une route basée sur GPT-4 ou Gemini, si elle est disponible dans votre environnement.

3. Ajuster le style de sortie

Modifiez le texte du prompt pour demander :

  • Des résumés sous forme de listes à puces
  • Des listes d’avantages/inconvénients
  • Des rapports de fact-checking
  • Des fiches de révision avec citations

Par exemple :

infsh app run openrouter/claude-sonnet-45 --input "{
  \"prompt\": \"Using the sources in $SEARCH, write a concise fact-check report. Highlight any conflicting claims and clearly list cited URLs.\"
}"

4. Envelopper le pattern dans des scripts réutilisables

Comme ai-rag-pipeline est adapté à Bash, vous pouvez placer ce pattern dans des scripts shell pour le réutiliser :

  • research-topic.sh – prend un sujet et renvoie un résumé fondé sur des sources web
  • fact-check.sh – prend une affirmation, lance une recherche et produit un rapport de fact-checking
  • briefing.sh – génère une note de synthèse à partir des dernières sources sur un domaine donné

Appelez ces scripts depuis vos agents ou vos jobs CI pour automatiser vos workflows de recherche.

Intégration avec des agents IA et des workflows

ai-rag-pipeline est conçu pour fonctionner avec des frameworks d’agents qui :

  • Peuvent appeler Bash (la compétence autorise Bash(infsh *))
  • Ont besoin d’une étape RAG pour récupérer et ancrer le contexte avant de générer des réponses

Intégrations typiques :

  • Assistants de recherche IA qui appellent automatiquement infsh app run tavily/... avant de répondre
  • Agents de fact-checking qui exécutent un pipeline de recherche avant de confirmer ou d’infirmer une affirmation
  • Mises à jour de base de connaissances qui récupèrent et synthétisent régulièrement les dernières actualités sur certains sujets

En standardisant ce pattern, vos agents peuvent réutiliser la même logique RAG tout en changeant les requêtes, outils ou modèles selon les besoins.

FAQ

C’est quoi ai-rag-pipeline en termes simples ?

ai-rag-pipeline est un petit modèle RAG centré sur le CLI qui apprend à vos agents à :

  1. Appeler des outils de recherche web via le CLI inference.sh
  2. Capturer la sortie de recherche
  3. La transmettre à un LLM pour des réponses étayées et fondées sur les sources

Ce n’est pas un framework complet : il fournit plutôt un schéma pratique que vous pouvez adapter.

Ai-je besoin d’inference.sh pour utiliser ai-rag-pipeline ?

Oui. Cette compétence est construite autour du CLI inference.sh (infsh). Le démarrage rapide et les commandes d’exemple reposent sur infsh app run .... Si vous n’utilisez pas inference.sh, cette compétence ne sera pas directement exploitable.

Quels outils et modèles puis-je utiliser avec ai-rag-pipeline ?

La description SKILL fait référence aux familles d’outils et de modèles suivantes, tant qu’ils sont exposés via votre configuration inference.sh :

  • Recherche / retrieval : Tavily Search, Exa Search, Exa Answer
  • LLM via OpenRouter : variantes de Claude, GPT-4, Gemini (et autres routes OpenRouter supportées par votre compte)

Consultez la sortie de infsh app list pour voir les apps disponibles dans votre environnement.

Puis-je utiliser ai-rag-pipeline pour le fact-checking ?

Oui. Le fact-checking est l’un des principaux cas d’usage visés. Un flux typique :

  1. Formuler l’affirmation ou la question
  2. Utiliser Tavily ou Exa pour collecter plusieurs sources
  3. Demander au LLM de comparer les sources, mettre en évidence les contradictions et fournir une conclusion argumentée

Comme la réponse est fondée sur du contenu récupéré, vous pouvez inspecter et vérifier les sources sous-jacentes.

Est-ce un framework RAG complet avec bases vectorielles ?

Non. ai-rag-pipeline se concentre sur un RAG piloté par la recherche web en direct via inference.sh. Il ne configure pas de bases de données, embeddings ou gestion d’index pour des corpus privés. Vous pouvez toutefois combiner ces patterns avec votre propre couche d’indexation si votre environnement expose ces outils via infsh.

Comment déboguer des problèmes dans le pipeline ?

En cas de problème :

  • Exécutez chaque commande infsh app run ... séparément pour vérifier qu’elle renvoie un JSON valide
  • Affichez ou logguez la variable $SEARCH pour voir la sortie brute de la recherche
  • Simplifiez le prompt et ajoutez des instructions comme « show your reasoning and list the URLs you used »
  • Consultez le SKILL.md amont pour d’éventuels exemples de démarrage rapide mis à jour

Où en savoir plus sur les concepts RAG ?

Le fichier SKILL inclut une courte explication de RAG en trois étapes : Retrieval → Augmentation → Generation. Pour aller plus loin, utilisez directement ai-rag-pipeline :

SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "introduction to retrieval augmented generation"}')
infsh app run openrouter/claude-sonnet-45 --input "{
  \"prompt\": \"Using the following sources, explain RAG to a developer audience: $SEARCH\"
}"

Cela vous permet de vous former à RAG avec le même pipeline que vous prévoyez de déployer.

Notes et avis

Aucune note pour le moment
Partagez votre avis
Connectez-vous pour laisser une note et un commentaire sur cet outil.
G
0/10000
Derniers avis
Enregistrement...