ai-rag-pipeline
작성자 inferen-shinference.sh CLI를 사용해 웹 검색 도구(Tavily, Exa)와 LLM(Claude, GPT-4, Gemini via OpenRouter)을 결합한 Retrieval Augmented Generation(RAG) 파이프라인을 구축할 수 있습니다. 근거와 출처가 명확한 답변이 필요한 리서치 에이전트, 팩트체커, AI 어시스턴트에 적합합니다.
개요
ai-rag-pipeline이란?
ai-rag-pipeline 스킬은 inference.sh(infsh) CLI를 통해 실시간 웹 검색과 대형 언어 모델(LLM)을 조합한 Retrieval Augmented Generation(RAG) 워크플로를 구축하는 데 도움을 줍니다. 다음과 같은 패턴을 간단하게 구현할 수 있습니다:
- Tavily Search, Exa와 같은 도구로 웹 리서치를 수행
- 그 검색 결과를 Claude, GPT-4, Gemini(OpenRouter 경유) 같은 LLM에 전달
- 근거가 있고 출처를 인식하는 답변을 받아 "지어내기"를 줄이기
내부적으로 ai-rag-pipeline은 infsh app run 호출을 체이닝하기 좋은, 셸 친화적인 패턴입니다. 이를 통해 RAG 스타일의 리서치, 질의응답, 팩트체킹 파이프라인을 빠르게 프로토타이핑할 수 있습니다.
이 스킬은 누구를 위한 것인가요?
ai-rag-pipeline은 다음과 같은 경우에 잘 맞습니다:
- 커맨드라인에서 inference.sh로 LLM 도구를 오케스트레이션하고 싶을 때
- 출처가 있는 리서치 스타일의 답변이나 명시적인 웹 컨텍스트가 필요할 때
- 항상 최신 정보를 유지해야 하는 AI 리서치 에이전트나 어시스턴트 워크플로를 만들 때
- 여러 출처에서 팩트체킹이나 웹 기반 요약이 필요할 때
특히 Bash, CLI, JSON 입력에 익숙한 개발자, 데이터/AI 연구자, 파워 유저에게 유용합니다.
ai-rag-pipeline은 어떤 문제를 해결하나요?
이 스킬은 검색과 LLM을 반복 가능하고 스크립트화된 방식으로 결합하는 대표적인 RAG 활용 사례에 초점을 맞춥니다. 다음과 같은 일을 도와줍니다:
- 단일 프롬프트 채팅을 넘어 파이프라인형 리서치로 확장
- Tavily 또는 Exa를 사용해 최신의 관련 정보를 수집
infsh를 통해 그 콘텐츠를 Claude, GPT-4, Gemini(OpenRouter 경유)에 전달- 다른 도구나 에이전트에서 재사용할 수 있고, 점검·감사 가능한 답변 생성
직접 사용하는 도구와 모델을 기반으로 Perplexity와 비슷한 워크플로를 원한다면, ai-rag-pipeline이 그 기본 빌딩 블록을 제공합니다.
ai-rag-pipeline이 맞지 않은 경우는 언제인가요?
다음에 해당한다면 다른 스킬이나 접근 방식을 고려하세요:
- inference.sh CLI를 사용하지 않거나 설치할 수 없는 경우
- 완전한 웹 앱이나 GUI가 필요할 때(이 스킬은 CLI/Bash 중심입니다)
- 비공개 문서에 대한 깊은 도메인 특화 인덱싱이 필요할 때(이 스킬은 전체 벡터 DB 구축이 아니라 실시간 웹 검색 패턴에 집중합니다)
문서, 지식 베이스, 에이전트 중심의 상위 레벨 자동화가 필요하다면, ai-rag-pipeline을 저수준 RAG 빌딩 블록으로 사용해 다른 스킬과 조합해 보세요.
사용 방법
사전 준비 사항
ai-rag-pipeline을 설치하기 전에 다음을 확인하세요:
- inference.sh CLI(
infsh)가 설치되어 있어야 합니다.- 상위 리포지토리에서 설치 안내를 다음 경로에 제공합니다:
https://raw.githubusercontent.com/inference-sh/skills/refs/heads/main/cli-install.md
- 상위 리포지토리에서 설치 안내를 다음 경로에 제공합니다:
infsh login을 실행해 정상적으로 인증할 수 있어야 합니다.- inference.sh를 통해 사용하려는 도구(Tavily, Exa, OpenRouter 기반 모델 등)에 접근할 수 있어야 합니다.
ai-rag-pipeline 스킬 설치
Agent Skills가 활성화된 환경에서 스킬을 설치하려면 다음을 실행합니다:
npx skills add https://github.com/inferen-sh/skills --skill ai-rag-pipeline
이 명령은 inferen-sh/skills 리포지토리의 tools/llm/ai-rag-pipeline에서 ai-rag-pipeline 정의를 가져와 에이전트나 워크스페이스에서 사용할 수 있게 합니다.
설치 후 Files 뷰를 열어 다음 파일을 확인하세요:
SKILL.md– 핵심 설명과 퀵스타트
퀵스타트: 간단한 검색 + 답변 RAG 파이프라인
SKILL 파일에는 infsh CLI를 이용한 최소한의 RAG 플로우 예제가 포함되어 있습니다.
- inference.sh에 로그인합니다:
infsh login
- Tavily 검색을 실행하고 결과를 Bash 변수에 저장합니다:
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "latest AI developments 2024"}')
- 그 리서치 결과를 LLM(예: OpenRouter를 통한 Claude 모델)에 전달해 요약을 생성합니다:
infsh app run openrouter/claude-sonnet-45 --input "{
\"prompt\": \"Based on this research, summarize the key trends: $SEARCH\"
}"
이 패턴은 ai-rag-pipeline의 핵심 아이디어를 보여 줍니다:
- Retrieval –
tavily/search-assistant가 웹 리서치를 수행 - Augmentation – 검색 결과를
$SEARCH변수로 프롬프트에 삽입 - Generation – Claude 모델이 해당 리서치에 기반한 요약 생성
inference.sh 설정에서 지원하는 범위 내에서 Exa Search / Exa Answer 같은 다른 검색 도구나 GPT-4, Gemini(OpenRouter 경유) 같은 다른 모델로 교체해 사용할 수 있습니다.
RAG 워크플로 커스터마이징
기본 플로우가 동작하면, 자신의 유스케이스에 맞게 조정해 보세요:
1. 리서치 쿼리 변경
query 필드를 도메인에 맞게 조정합니다:
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "impact of LLMs on healthcare regulation"}')
2. 다른 모델 사용
환경에서 사용할 수 있다면, openrouter/claude-sonnet-45 대신 inference.sh에 구성된 GPT-4나 Gemini 기반 라우트 등 다른 LLM 앱으로 교체합니다.
3. 출력 스타일 조정
prompt 텍스트를 변경해 다음과 같은 형식을 요청할 수 있습니다:
- 불릿 형태 요약
- 장단점 리스트
- 팩트체크 리포트
- 출처 표기가 포함된 스터디 노트
예를 들어:
infsh app run openrouter/claude-sonnet-45 --input "{
\"prompt\": \"Using the sources in $SEARCH, write a concise fact-check report. Highlight any conflicting claims and clearly list cited URLs.\"
}"
4. 재사용 가능한 스크립트로 래핑
ai-rag-pipeline은 Bash 친화적이므로, 이 패턴을 셸 스크립트로 만들어 재사용할 수 있습니다:
research-topic.sh– 토픽을 입력받아 웹 기반 요약을 반환fact-check.sh– 주장 내용을 입력받아 검색 후 팩트체크 리포트를 생성briefing.sh– 특정 도메인에 대한 최신 소스를 기반으로 브리핑 생성
이 스크립트들을 에이전트나 CI 작업에서 호출해 리서치 워크플로를 자동화할 수 있습니다.
AI 에이전트 및 워크플로와 통합하기
aio-rag-pipeline은 다음과 같은 에이전트 프레임워크와 함께 사용할 수 있도록 설계되었습니다:
- Bash 호출이 가능해야 합니다(SKILL은
Bash(infsh *)를 허용합니다) - 답변 생성 전에 컨텍스트를 가져와 고정하는 RAG 단계가 필요합니다
일반적인 통합 예시는 다음과 같습니다:
- 답변하기 전에 자동으로
infsh app run tavily/...를 호출하는 AI 리서치 어시스턴트 - 주장 검증 전 검색 파이프라인을 실행하는 팩트체킹 에이전트
- 특정 토픽에 대한 최신 뉴스를 주기적으로 가져와 요약하는 지식 베이스 업데이트 에이전트
이 패턴을 표준화하면, 쿼리·도구·모델만 바꾸면서도 에이전트들이 동일한 RAG 로직을 재사용할 수 있습니다.
FAQ
ai-rag-pipeline을 한마디로 설명하면 무엇인가요?
ai-rag-pipeline은 에이전트에게 다음을 가르치는, 작고 CLI 중심의 RAG 청사진입니다:
- inference.sh CLI를 통해 웹 검색 도구를 호출하는 방법
- 검색 결과를 캡처하는 방법
- 그 결과를 LLM에 전달해 근거와 출처를 기반으로 답변을 생성하는 방법
완전한 프레임워크를 지향하기보다는, 상황에 맞게 커스터마이징할 수 있는 실용적인 패턴을 제공합니다.
ai-rag-pipeline 사용에 inference.sh가 필수인가요?
네. 이 스킬은 inference.sh(infsh) CLI를 중심으로 구성되어 있습니다. 퀵스타트와 예제 명령은 모두 infsh app run ...에 의존합니다. inference.sh를 사용하지 않는다면 이 스킬을 직접 활용하기는 어렵습니다.
ai-rag-pipeline에서 사용할 수 있는 도구와 모델은 무엇인가요?
SKILL 설명에서는 다음과 같은 도구와 모델 계열을 예시로 들고 있으며, 모두 여러분의 inference.sh 설정에서 노출되어 있어야 합니다:
- 검색 / 검색 기반 리트리벌: Tavily Search, Exa Search, Exa Answer
- OpenRouter를 통한 LLM: Claude 계열, GPT-4, Gemini(및 계정에서 지원하는 기타 OpenRouter 라우트)
환경에서 사용 가능한 앱은 infsh app list를 실행해 확인하세요.
ai-rag-pipeline을 팩트체킹에 사용할 수 있나요?
예. 팩트체킹은 이 스킬이 특히 염두에 두고 있는 주요 활용 사례 중 하나입니다. 전형적인 플로우는 다음과 같습니다:
- 검증할 주장이나 질문을 정리합니다.
- Tavily 또는 Exa로 여러 출처를 수집합니다.
- LLM에 출처를 비교하고, 상충되는 내용을 강조하며, 근거 있는 결론을 제시하도록 요청합니다.
답변이 검색된 콘텐츠에 기반하므로, 그 아래에 있는 출처를 직접 확인하고 검증할 수 있습니다.
이것이 벡터 데이터베이스까지 포함한 완전한 RAG 프레임워크인가요?
아니요. ai-rag-pipeline은 inference.sh를 활용한 실시간 웹 검색 기반 RAG에 초점을 맞춥니다. 비공개 코퍼스에 대한 데이터베이스, 임베딩, 인덱스 관리까지 구성해 주지는 않습니다. 다만, 환경에서 그런 도구들이 infsh를 통해 노출되어 있다면, 이 스킬의 패턴을 자체 인덱싱 레이어와 결합해 사용할 수 있습니다.
파이프라인 문제를 디버깅하려면 어떻게 해야 하나요?
문제가 발생하면 다음을 확인해 보세요:
- 각
infsh app run ...명령을 개별적으로 실행해 유효한 JSON을 반환하는지 확인 $SEARCH변수를 echo 하거나 로그에 남겨 원시 검색 결과를 확인prompt를 단순화하고 “show your reasoning and list the URLs you used” 같은 지시문을 추가- 상위
SKILL.md에서 최신 퀵스타트 예제를 참고
RAG 개념을 더 배우고 싶다면 어디를 참고하면 되나요?
SKILL 파일에는 RAG를 Retrieval → Augmentation → Generation의 3단계 프로세스로 간단히 설명하는 부분이 포함되어 있습니다. 더 깊이 있는 개념을 공부하고 싶다면, ai-rag-pipeline 자체를 사용해 볼 수 있습니다:
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "introduction to retrieval augmented generation"}')
infsh app run openrouter/claude-sonnet-45 --input "{
\"prompt\": \"Using the following sources, explain RAG to a developer audience: $SEARCH\"
}"
이렇게 하면 실제 배포에 사용할 파이프라인으로 RAG 학습까지 함께 진행할 수 있습니다.
