I

ai-rag-pipeline

作者 inferen-sh

使用 inference.sh CLI 构建 Retrieval Augmented Generation(RAG,检索增强生成)流水线,把 Web 搜索工具(Tavily、Exa)与大语言模型(通过 OpenRouter 调用 Claude、GPT-4、Gemini)组合在一起。非常适合需要有依据、有引用回答的研究型智能体、事实核查工具和 AI 助手。

Stars0
收藏0
评论0
收录时间2026年3月27日
分类RAG 工作流
安装命令
npx skills add https://github.com/inferen-sh/skills --skill ai-rag-pipeline
概览

概览

ai-rag-pipeline 是什么?

ai-rag-pipeline 技能帮助你搭建 Retrieval Augmented Generation(RAG,检索增强生成)工作流,通过 inference.shinfsh)CLI 将实时 Web 搜索与大语言模型串联起来。它提供了一种简单的模式,用于:

  • 使用 Tavily Search、Exa 等工具执行 Web 调研
  • 将这些搜索结果传给 Claude、GPT-4、Gemini(通过 OpenRouter)等 LLM
  • 获得有依据、可溯源的回答,而不是无根据的猜测

在底层实现上,ai-rag-pipeline 是一种对 Shell 友好的模式,用来串联多次 infsh app run 调用,让你可以快速原型化 RAG 风格的研究、问答和事实核查流水线。

适合哪些人使用?

ai-rag-pipeline 适用于你如果:

  • 使用 inference.sh 在命令行编排 LLM 工具
  • 希望得到带引用的研究型回答或明确的 Web 上下文
  • 正在构建需要保持信息更新的 AI 研究智能体助手工作流
  • 需要来自多源信息的事实核查基于 Web 的摘要

它尤其适合熟悉 Bash、CLI 和 JSON 输入的开发者、数据/AI 研究者以及高阶用户。

ai-rag-pipeline 解决什么问题?

这个技能针对的是常见的 RAG 场景:以可重复、可脚本化的方式组合搜索与 LLM。它帮助你:

  • 从单轮对话式使用升级到流水线式研究
  • 使用 TavilyExa 拉取最新且相关的信息
  • 通过 infsh 将这些内容输入 Claude、GPT-4、Gemini(通过 OpenRouter)
  • 产出可审查、可审计、可在其他工具或智能体中复用的回答

如果你想用自己的工具和模型搭出一个类似 Perplexity 的工作流,ai-rag-pipeline 提供了基础积木。

什么时候不适合使用 ai-rag-pipeline?

在以下情况,可以考虑其他技能或方案:

  • 你没有使用 inference.sh CLI,或无法安装它
  • 你需要一个完整打包的 Web 应用或 GUI(本技能主要面向 CLI/Bash 场景
  • 你需要对私有文档做深度、领域化索引(本技能关注的是实时 Web 搜索模式,而非完整的向量数据库搭建)

在更高层的文档自动化、知识库或智能体编排中,可以把 ai-rag-pipeline 当作一个底层 RAG 组件,与其他技能组合使用。

使用方法

前置条件

在安装 ai-rag-pipeline 之前,请确保:

  • 已安装 inference.sh CLIinfsh)。
    • 上游仓库的安装说明链接:
      • https://raw.githubusercontent.com/inference-sh/skills/refs/heads/main/cli-install.md
  • 可以成功运行 infsh login 并完成鉴权。
  • 通过 inference.sh 能访问你计划使用的工具(如 Tavily、Exa、基于 OpenRouter 的模型)。

安装 ai-rag-pipeline 技能

在已启用 Agent Skills 的环境中,用以下命令安装技能:

npx skills add https://github.com/inferen-sh/skills --skill ai-rag-pipeline

这会从 inferen-sh/skills 仓库中的 tools/llm/ai-rag-pipeline 拉取 ai-rag-pipeline 的定义,并在你的 agent 或 workspace 中可用。

安装完成后,打开 Files 视图,查看:

  • SKILL.md – 核心说明和快速开始

快速开始:简单的搜索 + 回答 RAG 流水线

SKILL 文件展示了一个使用 infsh CLI 的最小 RAG 流程。

  1. 登录 inference.sh
infsh login
  1. 运行一次 Tavily 搜索,并将结果存入 Bash 变量:
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "latest AI developments 2024"}')
  1. 将这份研究结果传给 LLM(示例:通过 OpenRouter 调用的 Claude 模型),让其做摘要:
infsh app run openrouter/claude-sonnet-45 --input "{
  \"prompt\": \"Based on this research, summarize the key trends: $SEARCH\"
}"

这个模式展示了 ai-rag-pipeline 的核心理念:

  • Retrieval(检索)tavily/search-assistant 执行 Web 研究
  • Augmentation(增强) – 搜索输出以 $SEARCH 的形式嵌入到你的 prompt 中
  • Generation(生成) – Claude 模型基于这份研究生成有依据的摘要

你可以根据 inference.sh 的配置,替换为其他搜索工具(如 Exa Search / Exa Answer)或其他模型(如 GPT-4、通过 OpenRouter 的 Gemini)。

自定义 RAG 工作流

当基础流程跑通后,可以按你的场景进行调整:

1. 修改研究查询

根据你的领域定制 query 字段:

SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "impact of LLMs on healthcare regulation"}')

2. 更换模型

openrouter/claude-sonnet-45 换成在 inference.sh 中配置的其他 LLM app,比如 GPT-4 或基于 Gemini 的路由(前提是你的环境已启用)。

3. 调整输出风格

修改 prompt 文案,以请求:

  • 条列式摘要
  • 优缺点列表
  • 事实核查报告
  • 带引用的学习笔记

例如:

infsh app run openrouter/claude-sonnet-45 --input "{
  \"prompt\": \"Using the sources in $SEARCH, write a concise fact-check report. Highlight any conflicting claims and clearly list cited URLs.\"
}"

4. 封装为可复用脚本

由于 ai-rag-pipeline 对 Bash 友好,你可以将这套模式写进 Shell 脚本中重复使用:

  • research-topic.sh – 接收主题,返回基于 Web 的总结
  • fact-check.sh – 接收一个论断,执行搜索并输出事实核查报告
  • briefing.sh – 基于某一领域的最新来源生成简报

然后在智能体或 CI 任务中调用这些脚本,实现自动化研究工作流。

与 AI 智能体和工作流集成

ai-rag-pipeline 设计用于与以下类型的 agent 框架配合:

  • 可以调用 Bash(本 SKILL 允许 Bash(infsh *)
  • 在生成回答前,需要一个 RAG 步骤 来获取并固化上下文

典型集成方式:

  • AI 研究助理:在回答前自动调用 infsh app run tavily/...
  • 事实核查智能体:在给出结论前先跑完搜索流水线
  • 知识库更新工具:定期拉取并总结特定主题的最新资讯

通过统一使用这套模式,你的智能体可以在复用同一套 RAG 逻辑的同时,自由更换查询、工具或模型。

常见问题(FAQ)

用大白话讲,ai-rag-pipeline 是什么?

ai-rag-pipeline 是一个小而精的、面向 CLI 的 RAG 模板,它教会你的智能体如何:

  1. 通过 inference.sh CLI 调用 Web 搜索工具
  2. 捕获搜索输出
  3. 将其输入到 LLM 中,产出有来源支撑的回答

它不是要做成一个完整框架,而是给你一个实用的模式,方便二次定制。

使用 ai-rag-pipeline 一定要用 inference.sh 吗?

是的。这个技能是围绕 inference.shinfsh)CLI 设计的。快速开始和示例命令都依赖 infsh app run ...。如果你不用 inference.sh,就很难直接使用这个技能。

ai-rag-pipeline 可以搭配哪些工具和模型?

在你的 inference.sh 环境支持的前提下,SKILL 描述中提到的工具和模型类别包括:

  • 搜索 / 检索:Tavily Search、Exa Search、Exa Answer
  • 通过 OpenRouter 的 LLM:各类 Claude 模型、GPT-4、Gemini(以及你账户支持的其他 OpenRouter 路由)

可通过 infsh app list 查看当前环境中实际可用的 app。

我可以用 ai-rag-pipeline 做事实核查吗?

可以。事实核查是它的主要用途之一。典型流程是:

  1. 明确要核查的论断或问题
  2. 使用 Tavily 或 Exa 收集多方来源
  3. 让 LLM 对比各个来源,突出冲突点,并给出有依据的结论

由于答案是基于检索内容,你可以检查和验证背后的来源。

这是一个带向量数据库的完整 RAG 框架吗?

不是。ai-rag-pipeline 专注于通过 inference.sh 实现的 实时 Web 搜索驱动 RAG。它不会为你的私有语料配置数据库、embedding 或索引管理。不过,如果你的环境已经通过 infsh 暴露了自建索引层,也可以把这里的模式与之组合使用。

流水线出问题时该如何排查?

如果出现异常,可以尝试:

  • 分别单独运行每条 infsh app run ... 命令,确认返回的是合法 JSON
  • echo 或记录 $SEARCH 变量,查看原始搜索输出
  • 简化 prompt,并加上诸如“show your reasoning and list the URLs you used”之类的调试指令
  • 查阅上游 SKILL.md,了解是否有更新的快速开始示例

哪里可以进一步学习 RAG 概念?

SKILL 文件里用三步法简要解释了 RAG:Retrieval → Augmentation → Generation。如果你想更系统地学习,可以直接用 ai-rag-pipeline 自举学习:

SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "introduction to retrieval augmented generation"}')
infsh app run openrouter/claude-sonnet-45 --input "{
  \"prompt\": \"Using the following sources, explain RAG to a developer audience: $SEARCH\"
}"

这样,你可以用准备上线的同一条流水线,来加深自己对 RAG 的理解。

评分与评论

暂无评分
分享你的评价
登录后即可为这个技能评分并发表评论。
G
0/10000
最新评论
保存中...