ai-rag-pipeline
作者 inferen-sh使用 inference.sh CLI 构建 Retrieval Augmented Generation(RAG,检索增强生成)流水线,把 Web 搜索工具(Tavily、Exa)与大语言模型(通过 OpenRouter 调用 Claude、GPT-4、Gemini)组合在一起。非常适合需要有依据、有引用回答的研究型智能体、事实核查工具和 AI 助手。
概览
ai-rag-pipeline 是什么?
ai-rag-pipeline 技能帮助你搭建 Retrieval Augmented Generation(RAG,检索增强生成)工作流,通过 inference.sh(infsh)CLI 将实时 Web 搜索与大语言模型串联起来。它提供了一种简单的模式,用于:
- 使用 Tavily Search、Exa 等工具执行 Web 调研
- 将这些搜索结果传给 Claude、GPT-4、Gemini(通过 OpenRouter)等 LLM
- 获得有依据、可溯源的回答,而不是无根据的猜测
在底层实现上,ai-rag-pipeline 是一种对 Shell 友好的模式,用来串联多次 infsh app run 调用,让你可以快速原型化 RAG 风格的研究、问答和事实核查流水线。
适合哪些人使用?
ai-rag-pipeline 适用于你如果:
- 使用 inference.sh 在命令行编排 LLM 工具
- 希望得到带引用的研究型回答或明确的 Web 上下文
- 正在构建需要保持信息更新的 AI 研究智能体 或 助手工作流
- 需要来自多源信息的事实核查或基于 Web 的摘要
它尤其适合熟悉 Bash、CLI 和 JSON 输入的开发者、数据/AI 研究者以及高阶用户。
ai-rag-pipeline 解决什么问题?
这个技能针对的是常见的 RAG 场景:以可重复、可脚本化的方式组合搜索与 LLM。它帮助你:
- 从单轮对话式使用升级到流水线式研究
- 使用 Tavily 或 Exa 拉取最新且相关的信息
- 通过
infsh将这些内容输入 Claude、GPT-4、Gemini(通过 OpenRouter) - 产出可审查、可审计、可在其他工具或智能体中复用的回答
如果你想用自己的工具和模型搭出一个类似 Perplexity 的工作流,ai-rag-pipeline 提供了基础积木。
什么时候不适合使用 ai-rag-pipeline?
在以下情况,可以考虑其他技能或方案:
- 你没有使用 inference.sh CLI,或无法安装它
- 你需要一个完整打包的 Web 应用或 GUI(本技能主要面向 CLI/Bash 场景)
- 你需要对私有文档做深度、领域化索引(本技能关注的是实时 Web 搜索模式,而非完整的向量数据库搭建)
在更高层的文档自动化、知识库或智能体编排中,可以把 ai-rag-pipeline 当作一个底层 RAG 组件,与其他技能组合使用。
使用方法
前置条件
在安装 ai-rag-pipeline 之前,请确保:
- 已安装 inference.sh CLI(
infsh)。- 上游仓库的安装说明链接:
https://raw.githubusercontent.com/inference-sh/skills/refs/heads/main/cli-install.md
- 上游仓库的安装说明链接:
- 可以成功运行
infsh login并完成鉴权。 - 通过 inference.sh 能访问你计划使用的工具(如 Tavily、Exa、基于 OpenRouter 的模型)。
安装 ai-rag-pipeline 技能
在已启用 Agent Skills 的环境中,用以下命令安装技能:
npx skills add https://github.com/inferen-sh/skills --skill ai-rag-pipeline
这会从 inferen-sh/skills 仓库中的 tools/llm/ai-rag-pipeline 拉取 ai-rag-pipeline 的定义,并在你的 agent 或 workspace 中可用。
安装完成后,打开 Files 视图,查看:
SKILL.md– 核心说明和快速开始
快速开始:简单的搜索 + 回答 RAG 流水线
SKILL 文件展示了一个使用 infsh CLI 的最小 RAG 流程。
- 登录 inference.sh:
infsh login
- 运行一次 Tavily 搜索,并将结果存入 Bash 变量:
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "latest AI developments 2024"}')
- 将这份研究结果传给 LLM(示例:通过 OpenRouter 调用的 Claude 模型),让其做摘要:
infsh app run openrouter/claude-sonnet-45 --input "{
\"prompt\": \"Based on this research, summarize the key trends: $SEARCH\"
}"
这个模式展示了 ai-rag-pipeline 的核心理念:
- Retrieval(检索) –
tavily/search-assistant执行 Web 研究 - Augmentation(增强) – 搜索输出以
$SEARCH的形式嵌入到你的 prompt 中 - Generation(生成) – Claude 模型基于这份研究生成有依据的摘要
你可以根据 inference.sh 的配置,替换为其他搜索工具(如 Exa Search / Exa Answer)或其他模型(如 GPT-4、通过 OpenRouter 的 Gemini)。
自定义 RAG 工作流
当基础流程跑通后,可以按你的场景进行调整:
1. 修改研究查询
根据你的领域定制 query 字段:
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "impact of LLMs on healthcare regulation"}')
2. 更换模型
将 openrouter/claude-sonnet-45 换成在 inference.sh 中配置的其他 LLM app,比如 GPT-4 或基于 Gemini 的路由(前提是你的环境已启用)。
3. 调整输出风格
修改 prompt 文案,以请求:
- 条列式摘要
- 优缺点列表
- 事实核查报告
- 带引用的学习笔记
例如:
infsh app run openrouter/claude-sonnet-45 --input "{
\"prompt\": \"Using the sources in $SEARCH, write a concise fact-check report. Highlight any conflicting claims and clearly list cited URLs.\"
}"
4. 封装为可复用脚本
由于 ai-rag-pipeline 对 Bash 友好,你可以将这套模式写进 Shell 脚本中重复使用:
research-topic.sh– 接收主题,返回基于 Web 的总结fact-check.sh– 接收一个论断,执行搜索并输出事实核查报告briefing.sh– 基于某一领域的最新来源生成简报
然后在智能体或 CI 任务中调用这些脚本,实现自动化研究工作流。
与 AI 智能体和工作流集成
ai-rag-pipeline 设计用于与以下类型的 agent 框架配合:
- 可以调用 Bash(本 SKILL 允许
Bash(infsh *)) - 在生成回答前,需要一个 RAG 步骤 来获取并固化上下文
典型集成方式:
- AI 研究助理:在回答前自动调用
infsh app run tavily/... - 事实核查智能体:在给出结论前先跑完搜索流水线
- 知识库更新工具:定期拉取并总结特定主题的最新资讯
通过统一使用这套模式,你的智能体可以在复用同一套 RAG 逻辑的同时,自由更换查询、工具或模型。
常见问题(FAQ)
用大白话讲,ai-rag-pipeline 是什么?
ai-rag-pipeline 是一个小而精的、面向 CLI 的 RAG 模板,它教会你的智能体如何:
- 通过 inference.sh CLI 调用 Web 搜索工具
- 捕获搜索输出
- 将其输入到 LLM 中,产出有来源支撑的回答
它不是要做成一个完整框架,而是给你一个实用的模式,方便二次定制。
使用 ai-rag-pipeline 一定要用 inference.sh 吗?
是的。这个技能是围绕 inference.sh(infsh)CLI 设计的。快速开始和示例命令都依赖 infsh app run ...。如果你不用 inference.sh,就很难直接使用这个技能。
ai-rag-pipeline 可以搭配哪些工具和模型?
在你的 inference.sh 环境支持的前提下,SKILL 描述中提到的工具和模型类别包括:
- 搜索 / 检索:Tavily Search、Exa Search、Exa Answer
- 通过 OpenRouter 的 LLM:各类 Claude 模型、GPT-4、Gemini(以及你账户支持的其他 OpenRouter 路由)
可通过 infsh app list 查看当前环境中实际可用的 app。
我可以用 ai-rag-pipeline 做事实核查吗?
可以。事实核查是它的主要用途之一。典型流程是:
- 明确要核查的论断或问题
- 使用 Tavily 或 Exa 收集多方来源
- 让 LLM 对比各个来源,突出冲突点,并给出有依据的结论
由于答案是基于检索内容,你可以检查和验证背后的来源。
这是一个带向量数据库的完整 RAG 框架吗?
不是。ai-rag-pipeline 专注于通过 inference.sh 实现的 实时 Web 搜索驱动 RAG。它不会为你的私有语料配置数据库、embedding 或索引管理。不过,如果你的环境已经通过 infsh 暴露了自建索引层,也可以把这里的模式与之组合使用。
流水线出问题时该如何排查?
如果出现异常,可以尝试:
- 分别单独运行每条
infsh app run ...命令,确认返回的是合法 JSON echo或记录$SEARCH变量,查看原始搜索输出- 简化
prompt,并加上诸如“show your reasoning and list the URLs you used”之类的调试指令 - 查阅上游
SKILL.md,了解是否有更新的快速开始示例
哪里可以进一步学习 RAG 概念?
SKILL 文件里用三步法简要解释了 RAG:Retrieval → Augmentation → Generation。如果你想更系统地学习,可以直接用 ai-rag-pipeline 自举学习:
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "introduction to retrieval augmented generation"}')
infsh app run openrouter/claude-sonnet-45 --input "{
\"prompt\": \"Using the following sources, explain RAG to a developer audience: $SEARCH\"
}"
这样,你可以用准备上线的同一条流水线,来加深自己对 RAG 的理解。
