I

ai-rag-pipeline

작성자 inferen-sh

inference.sh CLI를 사용해 웹 검색 도구(Tavily, Exa)와 LLM(Claude, GPT-4, Gemini via OpenRouter)을 결합한 Retrieval Augmented Generation(RAG) 파이프라인을 구축할 수 있습니다. 근거와 출처가 명확한 답변이 필요한 리서치 에이전트, 팩트체커, AI 어시스턴트에 적합합니다.

Stars0
즐겨찾기0
댓글0
카테고리RAG Workflows
설치 명령어
npx skills add https://github.com/inferen-sh/skills --skill ai-rag-pipeline
개요

개요

ai-rag-pipeline이란?

ai-rag-pipeline 스킬은 inference.sh(infsh) CLI를 통해 실시간 웹 검색과 대형 언어 모델(LLM)을 조합한 Retrieval Augmented Generation(RAG) 워크플로를 구축하는 데 도움을 줍니다. 다음과 같은 패턴을 간단하게 구현할 수 있습니다:

  • Tavily Search, Exa와 같은 도구로 웹 리서치를 수행
  • 그 검색 결과를 Claude, GPT-4, Gemini(OpenRouter 경유) 같은 LLM에 전달
  • 근거가 있고 출처를 인식하는 답변을 받아 "지어내기"를 줄이기

내부적으로 ai-rag-pipeline은 infsh app run 호출을 체이닝하기 좋은, 셸 친화적인 패턴입니다. 이를 통해 RAG 스타일의 리서치, 질의응답, 팩트체킹 파이프라인을 빠르게 프로토타이핑할 수 있습니다.

이 스킬은 누구를 위한 것인가요?

ai-rag-pipeline은 다음과 같은 경우에 잘 맞습니다:

  • 커맨드라인에서 inference.sh로 LLM 도구를 오케스트레이션하고 싶을 때
  • 출처가 있는 리서치 스타일의 답변이나 명시적인 웹 컨텍스트가 필요할 때
  • 항상 최신 정보를 유지해야 하는 AI 리서치 에이전트어시스턴트 워크플로를 만들 때
  • 여러 출처에서 팩트체킹이나 웹 기반 요약이 필요할 때

특히 Bash, CLI, JSON 입력에 익숙한 개발자, 데이터/AI 연구자, 파워 유저에게 유용합니다.

ai-rag-pipeline은 어떤 문제를 해결하나요?

이 스킬은 검색과 LLM을 반복 가능하고 스크립트화된 방식으로 결합하는 대표적인 RAG 활용 사례에 초점을 맞춥니다. 다음과 같은 일을 도와줍니다:

  • 단일 프롬프트 채팅을 넘어 파이프라인형 리서치로 확장
  • Tavily 또는 Exa를 사용해 최신의 관련 정보를 수집
  • infsh를 통해 그 콘텐츠를 Claude, GPT-4, Gemini(OpenRouter 경유)에 전달
  • 다른 도구나 에이전트에서 재사용할 수 있고, 점검·감사 가능한 답변 생성

직접 사용하는 도구와 모델을 기반으로 Perplexity와 비슷한 워크플로를 원한다면, ai-rag-pipeline이 그 기본 빌딩 블록을 제공합니다.

ai-rag-pipeline이 맞지 않은 경우는 언제인가요?

다음에 해당한다면 다른 스킬이나 접근 방식을 고려하세요:

  • inference.sh CLI를 사용하지 않거나 설치할 수 없는 경우
  • 완전한 웹 앱이나 GUI가 필요할 때(이 스킬은 CLI/Bash 중심입니다)
  • 비공개 문서에 대한 깊은 도메인 특화 인덱싱이 필요할 때(이 스킬은 전체 벡터 DB 구축이 아니라 실시간 웹 검색 패턴에 집중합니다)

문서, 지식 베이스, 에이전트 중심의 상위 레벨 자동화가 필요하다면, ai-rag-pipeline을 저수준 RAG 빌딩 블록으로 사용해 다른 스킬과 조합해 보세요.

사용 방법

사전 준비 사항

ai-rag-pipeline을 설치하기 전에 다음을 확인하세요:

  • inference.sh CLI(infsh)가 설치되어 있어야 합니다.
    • 상위 리포지토리에서 설치 안내를 다음 경로에 제공합니다:
      • https://raw.githubusercontent.com/inference-sh/skills/refs/heads/main/cli-install.md
  • infsh login을 실행해 정상적으로 인증할 수 있어야 합니다.
  • inference.sh를 통해 사용하려는 도구(Tavily, Exa, OpenRouter 기반 모델 등)에 접근할 수 있어야 합니다.

ai-rag-pipeline 스킬 설치

Agent Skills가 활성화된 환경에서 스킬을 설치하려면 다음을 실행합니다:

npx skills add https://github.com/inferen-sh/skills --skill ai-rag-pipeline

이 명령은 inferen-sh/skills 리포지토리의 tools/llm/ai-rag-pipeline에서 ai-rag-pipeline 정의를 가져와 에이전트나 워크스페이스에서 사용할 수 있게 합니다.

설치 후 Files 뷰를 열어 다음 파일을 확인하세요:

  • SKILL.md – 핵심 설명과 퀵스타트

퀵스타트: 간단한 검색 + 답변 RAG 파이프라인

SKILL 파일에는 infsh CLI를 이용한 최소한의 RAG 플로우 예제가 포함되어 있습니다.

  1. inference.sh에 로그인합니다:
infsh login
  1. Tavily 검색을 실행하고 결과를 Bash 변수에 저장합니다:
SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "latest AI developments 2024"}')
  1. 그 리서치 결과를 LLM(예: OpenRouter를 통한 Claude 모델)에 전달해 요약을 생성합니다:
infsh app run openrouter/claude-sonnet-45 --input "{
  \"prompt\": \"Based on this research, summarize the key trends: $SEARCH\"
}"

이 패턴은 ai-rag-pipeline의 핵심 아이디어를 보여 줍니다:

  • Retrievaltavily/search-assistant가 웹 리서치를 수행
  • Augmentation – 검색 결과를 $SEARCH 변수로 프롬프트에 삽입
  • Generation – Claude 모델이 해당 리서치에 기반한 요약 생성

inference.sh 설정에서 지원하는 범위 내에서 Exa Search / Exa Answer 같은 다른 검색 도구나 GPT-4, Gemini(OpenRouter 경유) 같은 다른 모델로 교체해 사용할 수 있습니다.

RAG 워크플로 커스터마이징

기본 플로우가 동작하면, 자신의 유스케이스에 맞게 조정해 보세요:

1. 리서치 쿼리 변경

query 필드를 도메인에 맞게 조정합니다:

SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "impact of LLMs on healthcare regulation"}')

2. 다른 모델 사용

환경에서 사용할 수 있다면, openrouter/claude-sonnet-45 대신 inference.sh에 구성된 GPT-4나 Gemini 기반 라우트 등 다른 LLM 앱으로 교체합니다.

3. 출력 스타일 조정

prompt 텍스트를 변경해 다음과 같은 형식을 요청할 수 있습니다:

  • 불릿 형태 요약
  • 장단점 리스트
  • 팩트체크 리포트
  • 출처 표기가 포함된 스터디 노트

예를 들어:

infsh app run openrouter/claude-sonnet-45 --input "{
  \"prompt\": \"Using the sources in $SEARCH, write a concise fact-check report. Highlight any conflicting claims and clearly list cited URLs.\"
}"

4. 재사용 가능한 스크립트로 래핑

ai-rag-pipeline은 Bash 친화적이므로, 이 패턴을 셸 스크립트로 만들어 재사용할 수 있습니다:

  • research-topic.sh – 토픽을 입력받아 웹 기반 요약을 반환
  • fact-check.sh – 주장 내용을 입력받아 검색 후 팩트체크 리포트를 생성
  • briefing.sh – 특정 도메인에 대한 최신 소스를 기반으로 브리핑 생성

이 스크립트들을 에이전트나 CI 작업에서 호출해 리서치 워크플로를 자동화할 수 있습니다.

AI 에이전트 및 워크플로와 통합하기

aio-rag-pipeline은 다음과 같은 에이전트 프레임워크와 함께 사용할 수 있도록 설계되었습니다:

  • Bash 호출이 가능해야 합니다(SKILL은 Bash(infsh *)를 허용합니다)
  • 답변 생성 전에 컨텍스트를 가져와 고정하는 RAG 단계가 필요합니다

일반적인 통합 예시는 다음과 같습니다:

  • 답변하기 전에 자동으로 infsh app run tavily/...를 호출하는 AI 리서치 어시스턴트
  • 주장 검증 전 검색 파이프라인을 실행하는 팩트체킹 에이전트
  • 특정 토픽에 대한 최신 뉴스를 주기적으로 가져와 요약하는 지식 베이스 업데이트 에이전트

이 패턴을 표준화하면, 쿼리·도구·모델만 바꾸면서도 에이전트들이 동일한 RAG 로직을 재사용할 수 있습니다.

FAQ

ai-rag-pipeline을 한마디로 설명하면 무엇인가요?

ai-rag-pipeline은 에이전트에게 다음을 가르치는, 작고 CLI 중심의 RAG 청사진입니다:

  1. inference.sh CLI를 통해 웹 검색 도구를 호출하는 방법
  2. 검색 결과를 캡처하는 방법
  3. 그 결과를 LLM에 전달해 근거와 출처를 기반으로 답변을 생성하는 방법

완전한 프레임워크를 지향하기보다는, 상황에 맞게 커스터마이징할 수 있는 실용적인 패턴을 제공합니다.

ai-rag-pipeline 사용에 inference.sh가 필수인가요?

네. 이 스킬은 inference.sh(infsh) CLI를 중심으로 구성되어 있습니다. 퀵스타트와 예제 명령은 모두 infsh app run ...에 의존합니다. inference.sh를 사용하지 않는다면 이 스킬을 직접 활용하기는 어렵습니다.

ai-rag-pipeline에서 사용할 수 있는 도구와 모델은 무엇인가요?

SKILL 설명에서는 다음과 같은 도구와 모델 계열을 예시로 들고 있으며, 모두 여러분의 inference.sh 설정에서 노출되어 있어야 합니다:

  • 검색 / 검색 기반 리트리벌: Tavily Search, Exa Search, Exa Answer
  • OpenRouter를 통한 LLM: Claude 계열, GPT-4, Gemini(및 계정에서 지원하는 기타 OpenRouter 라우트)

환경에서 사용 가능한 앱은 infsh app list를 실행해 확인하세요.

ai-rag-pipeline을 팩트체킹에 사용할 수 있나요?

예. 팩트체킹은 이 스킬이 특히 염두에 두고 있는 주요 활용 사례 중 하나입니다. 전형적인 플로우는 다음과 같습니다:

  1. 검증할 주장이나 질문을 정리합니다.
  2. Tavily 또는 Exa로 여러 출처를 수집합니다.
  3. LLM에 출처를 비교하고, 상충되는 내용을 강조하며, 근거 있는 결론을 제시하도록 요청합니다.

답변이 검색된 콘텐츠에 기반하므로, 그 아래에 있는 출처를 직접 확인하고 검증할 수 있습니다.

이것이 벡터 데이터베이스까지 포함한 완전한 RAG 프레임워크인가요?

아니요. ai-rag-pipeline은 inference.sh를 활용한 실시간 웹 검색 기반 RAG에 초점을 맞춥니다. 비공개 코퍼스에 대한 데이터베이스, 임베딩, 인덱스 관리까지 구성해 주지는 않습니다. 다만, 환경에서 그런 도구들이 infsh를 통해 노출되어 있다면, 이 스킬의 패턴을 자체 인덱싱 레이어와 결합해 사용할 수 있습니다.

파이프라인 문제를 디버깅하려면 어떻게 해야 하나요?

문제가 발생하면 다음을 확인해 보세요:

  • infsh app run ... 명령을 개별적으로 실행해 유효한 JSON을 반환하는지 확인
  • $SEARCH 변수를 echo 하거나 로그에 남겨 원시 검색 결과를 확인
  • prompt를 단순화하고 “show your reasoning and list the URLs you used” 같은 지시문을 추가
  • 상위 SKILL.md에서 최신 퀵스타트 예제를 참고

RAG 개념을 더 배우고 싶다면 어디를 참고하면 되나요?

SKILL 파일에는 RAG를 Retrieval → Augmentation → Generation의 3단계 프로세스로 간단히 설명하는 부분이 포함되어 있습니다. 더 깊이 있는 개념을 공부하고 싶다면, ai-rag-pipeline 자체를 사용해 볼 수 있습니다:

SEARCH=$(infsh app run tavily/search-assistant --input '{"query": "introduction to retrieval augmented generation"}')
infsh app run openrouter/claude-sonnet-45 --input "{
  \"prompt\": \"Using the following sources, explain RAG to a developer audience: $SEARCH\"
}"

이렇게 하면 실제 배포에 사용할 파이프라인으로 RAG 학습까지 함께 진행할 수 있습니다.

평점 및 리뷰

아직 평점이 없습니다
리뷰 남기기
이 스킬의 평점과 리뷰를 남기려면 로그인하세요.
G
0/10000
최신 리뷰
저장 중...