deep-research
작성자 Shubhamsaboodeep-research는 구조화된 웹 리서치를 위한 경량 에이전트 스킬입니다. 하나의 SKILL.md 워크플로 안에서 조사 범위를 명확히 하고, 여러 출처를 수집하며, 신뢰도를 평가하고, 인용을 포함한 결과를 종합하도록 돕습니다.
이 스킬은 73/100점으로, 재사용 가능한 deep-research 프롬프트 골격을 찾는 디렉터리 사용자에게는 등재할 만한 수준입니다. 트리거 조건이 비교적 분명하고 에이전트에 명확한 조사 순서를 제시하지만, 구체적인 설정, 도구 연동, 실행 자산까지 갖춘 강한 운영형 스킬이라기보다는 구조화된 안내 문서로 보는 편이 적절합니다.
- 프론트매터와 설명에서 심층 조사, 종합 정리, 다각도 검토, 인용 포함 요약 등 언제 호출해야 하는지가 분명하게 드러납니다.
- SKILL.md에 질문 구체화, 관점 분해, 정보 수집, 출처 신뢰도 평가, 종합 정리까지 아우르는 구조화된 리서치 워크플로가 담겨 있습니다.
- 문서가 단순 플레이스홀더가 아니라 분량과 섹션 구성이 충분해, 에이전트가 일관된 리서치 행동을 수행하도록 돕습니다.
- 설치 명령, 지원 파일, 도구별 설정 가이드가 없어 사실상 프롬프트만으로 도입해야 하며, 일부는 사용자가 직접 판단해 보완해야 합니다.
- 워크플로는 실행 가능한 절차라기보다 상위 수준의 리서치 프로세스 안내에 가깝기 때문에, 잘 작성된 범용 리서치 프롬프트를 크게 넘는 활용 가치는 제한적입니다.
deep-research skill 개요
deep-research skill은 에이전트가 특정 주제를 조사하고, 여러 출처를 비교한 뒤, 인용이 포함된 종합 답변을 반환하도록 설계된 구조화된 리서치 워크플로입니다. 빠른 요약만으로는 부족한 사용자, 즉 출처 신뢰도와 관점 범위가 중요한 웹 리서치를 수행하는 분석가, 작성자, 창업자, 학생, 운영 담당자에게 특히 잘 맞습니다.
deep-research가 실제로 쓰이는 용도
deep-research는 단순히 “이 질문에 답해줘”가 아니라 “이 질문을 제대로 조사해줘”가 필요한 작업에 적합합니다. 이 skill은 에이전트가 다음 순서로 움직이도록 유도합니다.
- 리서치 목표를 명확히 하고,
- 주제를 하위 질문으로 나누고,
- 여러 관점에서 정보를 수집하고,
- 출처의 신뢰도와 최신성을 평가하고,
- 링크만 나열하지 않고 결과를 종합하며,
- 인용이 포함된 분석 결과를 작성합니다.
그래서 결과물에 추적 가능성, 균형 잡힌 커버리지, 의사결정에 바로 쓸 수 있는 요약이 필요할 때는 일반 프롬프트보다 더 잘 맞습니다.
잘 맞는 사용자와 작업
deep-research skill은 다음과 같은 작업에 특히 유용합니다.
- 시장 및 경쟁사 조사
- 정책·규제 개요 파악
- 기술 지형 조사
- 문헌 리뷰 스타일의 주제 정리
- 창업자 실사와 벤더 평가
- 인용이 중요한 모든 웹 리서치 작업
반대로 단순 사실 조회, 창의적 브레인스토밍, 혹은 이미 요약할 출처 집합이 정확히 정해져 있는 작업에는 효용이 떨어집니다.
일반적인 프롬프트와 deep-research의 차이
가장 큰 차이는 프로세스의 규율입니다. 모델에게 그냥 “X를 조사해줘”라고 맡기는 대신, deep-research는 범위 명확화 → 관점 정의 → 출처 수집 → 품질 평가 → 종합이라는 재현 가능한 순서를 제공합니다. 보통 이 방식은 다음을 개선합니다.
- 출처 다양성
- 상반된 관점에 대한 커버리지
- 인용 품질
- 답변 구조
실제 사용자는 에이전트가 “믿고 다시 활용할 수 있는 보고서”를 만들 수 있는지를 중요하게 봅니다. 이 skill은 바로 그 결과를 목표로 설계되어 있습니다.
설치 전에 확인할 점
이 저장소 경로는 가볍습니다. 핵심 로직은 SKILL.md에 들어 있고, 트리 미리보기 기준으로 추가 스크립트, 규칙 파일, 참고 자료 파일은 보이지 않습니다. 빠르게 도입하기에는 좋지만, 툴링이나 데이터 패키지, 자동화 도우미가 아니라 프롬프트 및 워크플로 가이드를 받는 구조에 가깝다고 보는 편이 맞습니다.
즉시 사용할 수 있는 크롤러, 데이터셋 파이프라인, 커스텀 랭킹 시스템을 원한다면 deep-research 단독으로는 다소 미니멀할 수 있습니다.
deep-research skill 사용 방법
Skills 지원 환경에 deep-research 설치하기
에이전트 런타임이 Skills를 지원한다면, 저장소에서 deep-research를 설치할 수 있습니다.
npx skills add Shubhamsaboo/awesome-llm-apps --skill deep-research
설치 후에는 호환되는 에이전트 환경에서 이 skill을 attach하거나 invoke하면 됩니다. 저장소 구조상 단일 파일 skill로 보이므로, 추가한 뒤 에이전트에 웹 접근 권한이나 조사할 소스 자료를 주는 것 외에 설정 부담은 크지 않습니다.
먼저 읽어야 할 파일
다음 파일부터 확인하세요.
awesome_agent_skills/deep-research/SKILL.md
여기서는 추가 지원 파일이 드러나지 않기 때문에, SKILL.md가 다음 항목의 사실상 기준 문서입니다.
- 언제 이 skill을 적용해야 하는지
- 리서치 프로세스가 어떻게 설계되어 있는지
- 어떤 출력 결과를 기대하는지
- 어떤 추론 순서를 의도하는지
deep-research에 필요한 최소 입력값 이해하기
deep-research usage는 처음부터 아래 네 가지를 주면 훨씬 좋아집니다.
- 리서치 질문
- 리서치 목적
- 원하는 깊이
- 우선적으로 볼 관점이나 제약 조건
약한 입력 예시:
- “Research AI chips.”
더 강한 입력 예시:
- “Research the AI chip market for enterprise inference in 2024–2025. Compare NVIDIA, AMD, Intel, and custom cloud accelerators. Focus on pricing signals, software ecosystem maturity, deployment constraints, and buyer switching costs. Deliver a cited executive summary for a CTO deciding whether to stay standardized on CUDA.”
두 번째 버전은 범위, 비교 프레임, 의사결정 맥락이 명확하기 때문에 skill이 훨씬 더 좋은 결과를 내기 쉽습니다.
모호한 목표를 실행 가능한 리서치 브리프로 바꾸기
좋은 deep-research guide는 막연한 의도를 조사 축으로 바꾸는 데서 시작합니다. skill을 실행하기 전에 다음을 구체화하세요.
- 주제 또는 의사결정 대상
- 기간
- 지역
- 이해관계자 관점
- 반드시 다뤄야 할 하위 주제
- 원하는 출력 형식
- 허용 가능한 출처
- 제외할 관점
간단한 템플릿은 아래와 같습니다.
- Objective: 어떤 결정이나 이해가 필요한가?
- Scope: 무엇을 포함하고 무엇을 제외하는가?
- Time range: 출처는 어느 정도 최신이어야 하는가?
- Perspectives: 누구의 관점을 비교해야 하는가?
- Deliverable: summary, memo, table, or recommendation?
- Citation expectation: inline citations, source list, or both?
이 단계가 중요한 이유는, 이 skill이 리서치 질문을 명확히 하고 핵심 측면을 식별하는 것부터 시작하도록 설계되어 있기 때문입니다.
요약용이 아니라 웹 리서치용으로 deep-research 쓰기
deep-research for Web Research는 하나의 글을 바꿔 말하는 작업보다, 여러 개의 실시간 출처나 사용자 제공 자료를 에이전트가 직접 검토할 수 있을 때 가장 빛납니다. 이 skill의 핵심 가치는 출처와 관점을 가로지르는 종합에 있습니다.
실무적으로는 다음 흐름이 좋습니다.
- 질문을 정의하고,
- 후보 출처를 수집하고,
- 에이전트에게 신뢰도와 최신성을 평가하게 하고,
- 패턴, 이견, 공백을 종합한 뒤,
- 인용이 포함된 최종 보고서를 작성하게 합니다.
출처 수집과 종합 단계를 건너뛰면, 이 skill은 사실상 일반 요약 프롬프트로 축소됩니다.
결과만이 아니라 출처 평가도 요청하기
deep-research에서 특히 유용한 지점 중 하나는 신뢰도 점검이 명시적으로 포함되어 있다는 점입니다. 프롬프트에서 에이전트에게 아래 내용을 함께 표시하라고 요청하세요.
- 어떤 출처가 1차 자료이고 어떤 출처가 2차 자료인지
- 자료가 얼마나 최신인지
- 이해상충 가능성이 있는지
- 근거가 빈약하거나 논쟁 중인 부분이 어디인지
이 점은 빠르게 변하는 주제, 벤더 주장, 건강 정보, 정책 해석, 시장 규모 추정 같은 작업에서 특히 중요합니다.
더 나은 결과를 위한 권장 출력 구조
deep-research usage의 안정성을 높이려면, 출력 형식을 아래처럼 지정하는 것이 좋습니다.
- research question
- scope and assumptions
- key findings
- source-backed evidence by subtopic
- areas of agreement and disagreement
- confidence or evidence-quality notes
- open questions
- cited conclusion
이 구조는 skill이 의도한 종합 워크플로와 잘 맞고, 얕은 링크 나열로 끝날 가능성을 줄여줍니다.
deep-research를 제대로 호출하는 실전 프롬프트 패턴
강한 호출 패턴의 예시는 다음과 같습니다.
“Use deep-research to investigate [topic]. Clarify the research question first, break it into subtopics, gather information from multiple perspectives, evaluate source credibility and publication date, then synthesize findings with citations. Prioritize [angles]. Exclude [out-of-scope items]. End with key conclusions, uncertainties, and recommended next questions.”
이 방식이 잘 작동하는 이유는, skill의 내부 순서를 거스르지 않고 오히려 강화해주기 때문입니다.
deep-research 실행 전에 범위를 좁혀야 하는 경우
실무에서 가장 흔한 걸림돌은 범위가 지나치게 큰 경우입니다. 첫 요청이 너무 많은 시장, 연도, 이해관계자 집단을 한 번에 포함하면 결과 품질이 대체로 떨어집니다. 먼저 다음 중 하나로 범위를 좁히세요.
- 하나의 지역
- 하나의 구매자 페르소나
- 하나의 기간
- 하나의 의사결정 질문
- 하나의 비교 대상 집합
예시:
“Research remote work software” 대신 아래처럼 요청하는 편이 낫습니다.
- “Compare Notion, Confluence, and Coda for 500-person engineering organizations in 2025, focusing on governance, search quality, AI features, and migration risk.”
저장소가 제공하지 않는 것
이 deep-research install은 단순하지만, 다음 항목까지 기본 제공된다고 기대하면 안 됩니다.
- 내장 retrieval 스크립트
- 커스텀 랭킹 또는 인용 툴링
- 출처 라이브러리
- 도메인 특화 규칙
- 핵심 가이드 이상의 사전 작성 출력 템플릿
즉, 도입 장벽은 낮지만 결과 품질은 사용자의 프롬프트 품질과 런타임 기능에 크게 좌우됩니다.
deep-research skill FAQ
deep-research는 일반 리서치 프롬프트보다 나은가요?
대체로 그렇습니다. 작업에 구조화, 출처 비교, 인용이 필요하다면 더 유리합니다. 일반 프롬프트는 빠르게 답할 수는 있어도, deep-research는 보통 다음을 더 잘 수행합니다.
- 하위 주제 분리
- 여러 관점 커버
- 출처 품질 점검
- 재사용 가능한 리서치 요약 작성
다만 단순 사실 조회라면 이런 추가 구조가 오히려 불필요할 수 있습니다.
초보자도 deep-research를 쓸 수 있나요?
네. 핵심 워크플로가 하나의 SKILL.md 파일에 들어 있어 읽기 쉽고 가볍습니다. 별도 툴 설치 없이 반복 가능한 조사 방식을 갖고 싶은 사용자에게 접근성이 좋습니다.
대신 초보자라도 최소한 괜찮은 리서치 브리프는 작성해야 합니다. 이 skill은 프로세스를 개선해주지만, 불명확한 목표를 대신 추측해주지는 못합니다.
어떤 경우에는 deep-research를 쓰지 않는 게 좋나요?
다음 상황에서는 deep-research를 건너뛰는 편이 낫습니다.
- 빠른 답 하나만 필요할 때
- 이미 고정된 출처 집합이 있고 요약만 하면 될 때
- 작업이 분석보다 창작에 가까울 때
- 에이전트가 출처에 접근할 수 없어 근거 평가를 제대로 못할 때
또한 전문 데이터베이스나 정식 법률·의료 검토가 필요한 고규제 도메인에서도 적합성이 떨어질 수 있습니다.
deep-research는 웹 접근이 꼭 필요한가요?
반드시 그런 것은 아니지만, 특히 최신 이슈를 다룰 때는 여러 출처에 접근할 수 있을수록 성능이 좋아집니다. 웹 접근이 없어도 사용자 제공 코퍼스를 대상으로 deep-research skill을 쓸 수는 있지만, 출처의 폭과 최신성은 결국 사용자가 제공한 자료에 달려 있습니다.
상충하는 출처가 있을 때 deep-research는 어떻게 처리하나요?
이 워크플로는 결과를 종합하면서 합의 지점과 이견 지점을 함께 드러내도록 명시하고 있습니다. 실전에서는 에이전트에게 다음을 분명히 요청하는 것이 좋습니다.
- 서로 경쟁하는 주장들을 제시하고
- 더 강한 근거가 무엇인지 식별하고
- 왜 의견 차이가 발생하는지 설명하라
억지로 하나의 결론만 만들기보다 이런 방식이 훨씬 유용합니다.
사내 리서치에도 deep-research를 쓸 수 있나요?
네, 자료만 제공하면 가능합니다. 같은 프로세스를 내부 문서, 고객 인터뷰 기록, 전략 메모, 경쟁사 노트에도 적용할 수 있습니다. 다만 어떤 출처를 권위 있는 자료로 볼지, 외부 웹 리서치를 포함할지 여부는 미리 에이전트에 알려주는 것이 좋습니다.
deep-research skill 개선 방법
deep-research에 의사결정 맥락을 넣기
출력 품질을 가장 빠르게 끌어올리는 방법은 이 리서치가 어디에 쓰일지 말해주는 것입니다. “이 주제를 조사해줘”보다 아래와 같은 요청이 훨씬 강합니다.
- “I need to choose a vendor,”
- “I need an investor memo,”
- “I need a balanced brief for executives,”
- or “I need a literature-style overview.”
의사결정 맥락이 있으면 skill은 정보량보다 관련성을 우선하게 됩니다.
비교 축을 처음부터 명시하기
약한 리서치 결과물은 모델이 비교 기준을 멋대로 정할 때 자주 나옵니다. 더 나은 deep-research 결과를 원한다면, 비교 축을 사용자가 직접 정하세요.
예시:
“Compare by total cost, integration difficulty, compliance support, switching risk, and evidence strength.”
이렇게 하면 막연한 pros/cons 목록보다 의사결정에 실제로 도움이 되는 종합 결과를 얻기 쉽습니다.
출처 품질 기준을 명시적으로 걸기
인용 품질이 중요하다면 그 점을 분명히 말해야 합니다. 에이전트에게 다음 우선순위를 요구하세요.
- 가능하면 1차 자료 우선
- 빠르게 변하는 주제는 최신 자료 우선
- 1차 근거가 없을 때는 출처가 분명한 2차 해설 사용
또, 빈약한 근거를 그럴듯하게 메우지 말고 약한 근거는 약하다고 표시하라고 요청하세요.
전체 종합 전에 하위 주제 맵을 먼저 만들기
실전에서 효과적인 개선 방법은 다음과 같습니다.
- 먼저 에이전트에게 하위 주제를 제안하게 하고,
- 그 목록을 검토·수정한 뒤,
- 전체 리서치 패스를 돌립니다.
이 과정은 빠진 관점을 줄이고, 최종 보고서가 실제 질문과 더 잘 맞도록 해줍니다.
가장 흔한 실패 패턴 바로잡기
deep-research usage에서 자주 나타나는 실패 패턴은 다음과 같습니다.
- 범위가 너무 넓다
- 출처가 충분히 다양하지 않다
- 인용은 있지만 근거가 약하다
- 결과를 종합하지 않고 나열만 한다
- 이견을 무시한다
- 결론이 확실성을 과장한다
이 문제를 줄이려면 아래 항목을 요구하세요.
- 더 좁은 범위
- 출처 유형의 명시적 다양성
- 근거 품질 메모
- 합의 vs. 이견 섹션
- 짧은 한계 섹션
불확실성과 다음 조사 단계까지 요청하기
좋은 리서치 결과는 모든 것이 이미 정리된 것처럼 굴지 않습니다. deep-research를 더 잘 활용하려면 아래 항목을 필수로 요구하세요.
- 답이 나지 않은 질문
- 데이터 공백
- 사용된 가정
- 다음에 무엇을 더 조사해야 하는지
특히 첫 번째 패스가 탐색적 성격이고, 그 결과가 두 번째 조사의 방향을 정할 때 매우 유용합니다.
처음 결과를 버리지 말고 반복 개선하기
첫 결과가 일부만 맞는다고 해서 처음부터 다시 시작할 필요는 없습니다. 가장 좋은 개선 루프는 아래와 같습니다.
- 빠진 관점을 짚고
- 특정 하위 주제를 더 깊게 파고들게 하고
- 출처 기준을 더 엄격히 만들고
- 종합 결과를 수정 요청합니다
후속 요청 예시:
“Expand the disagreement section on open-source vs. proprietary models. Add newer sources, separate vendor claims from independent analysis, and revise the conclusion to reflect evidence strength.”
대부분의 경우 이런 방식이 처음부터 다시 쓰는 것보다 낫습니다.
중요한 작업이라면 보유한 출처 목록과 함께 deep-research 쓰기
중요도가 높은 작업에서는 아래 자료를 함께 제공하면 신뢰도를 크게 높일 수 있습니다.
- 반드시 읽어야 할 출처
- 이미 확인한 1차 문서
- 신뢰할 만한 전문가 발행물
- 내부에서 이미 믿고 있는 자료
이 skill은 여전히 종합에 도움이 되지만, 이렇게 큐레이션된 입력을 주면 허위 권위에 끌리거나 약한 출처로 흐르는 위험을 줄일 수 있습니다.
최종 요청은 구체적으로 유지하기
deep-research skill은 최종 산출물이 분명할수록 가장 잘 작동합니다. 다음과 같은 형태 중 하나를 명시해서 요청하세요.
- executive memo
- comparative table
- source-backed brief
- literature-style summary
- recommendation with caveats
“이 주제에 대해 다 알려줘” 같은 요청보다, 이렇게 구체적인 산출물을 요구할 때 훨씬 더 정돈되고 실용적인 리서치를 얻을 수 있습니다.
