작성자 affaan-m
구조화된 텍스트 추출에서 regex와 LLM 중 무엇을 선택할지 판단하는 regex-vs-llm-structured-text 스킬입니다. 먼저 결정론적 파싱으로 시작하고, 신뢰도가 낮은 예외에는 LLM 검증을 더한 뒤, 문서·양식·청구서·데이터 분석에 더 저렴하고 신뢰도 높은 파이프라인을 사용하세요.
작성자 affaan-m
구조화된 텍스트 추출에서 regex와 LLM 중 무엇을 선택할지 판단하는 regex-vs-llm-structured-text 스킬입니다. 먼저 결정론적 파싱으로 시작하고, 신뢰도가 낮은 예외에는 LLM 검증을 더한 뒤, 문서·양식·청구서·데이터 분석에 더 저렴하고 신뢰도 높은 파이프라인을 사용하세요.
작성자 affaan-m
llm-trading-agent-security는 지갑 권한을 가진 자율 거래 에이전트를 안전하게 보호하기 위한 실용 가이드입니다. 프롬프트 인젝션, 지출 한도, 전송 전 시뮬레이션, 서킷 브레이커, MEV를 고려한 실행, 키 분리를 다루며, Security Audit에서 금융 손실 위험을 줄이는 데 도움이 됩니다.
작성자 affaan-m
foundation-models-on-device는 iOS 26+에서 Apple FoundationModels 기능을 구현할 수 있도록 도와줍니다. 온디바이스 텍스트 생성, @Generable 기반 가이드 출력, tool calling, snapshot streaming, 그리고 프라이버시 우선 앱을 위한 사용 가능성 확인까지 지원합니다.
작성자 affaan-m
cost-aware-llm-pipeline는 모델 라우팅, 변경 불가한 비용 추적, 재시도 처리, 프롬프트 캐싱을 통해 API 비용을 통제하는 LLM 워크플로를 구축하도록 돕습니다. 대량 배치 작업, 문서 파이프라인, 그리고 출력량과 품질의 균형에 명확한 기준이 필요한 Workflow Automation에 특히 적합합니다.
작성자 Shubhamsaboo
fact-checker는 구조화된 주장 검증, 출처 평가, 그리고 신뢰도·맥락을 함께 제시하는 명확한 판정을 위한 프롬프트 기반 스킬입니다. Shubhamsaboo/awesome-llm-apps에서 설치하면 반복 가능한 워크플로로 발언, 루머, 통계, 오해를 부르는 주장까지 fact-checker로 체계적으로 검증할 수 있습니다.
작성자 Shubhamsaboo
deep-research는 구조화된 웹 리서치를 위한 경량 에이전트 스킬입니다. 하나의 SKILL.md 워크플로 안에서 조사 범위를 명확히 하고, 여러 출처를 수집하며, 신뢰도를 평가하고, 인용을 포함한 결과를 종합하도록 돕습니다.
작성자 garrytan
cso는 에이전트를 위한 Chief Security Officer 스타일의 보안 감사 스킬입니다. 코드베이스와 워크플로에서 비밀 정보 노출, 의존성 및 공급망 리스크, CI/CD 보안, LLM/AI 보안을 OWASP Top 10과 STRIDE 기준으로 검토하는 데 도움을 줍니다. 신뢰도 게이트, 능동 검증, 추세 추적이 포함된 구조화된 Security Audit 리뷰에 cso를 사용하세요.
작성자 wshobson
evaluation-methodology 스킬은 Model Evaluation을 위한 PluginEval 점수 체계를 설명합니다. 평가 레이어, 루브릭, 종합 점수 산정, 배지 기준점은 물론, 결과를 해석하고 취약한 평가 차원을 개선하는 실무적인 방법까지 다룹니다.
작성자 wshobson
prompt-engineering-patterns는 실전형 프롬프트 설계를 위한 스킬로, Context Engineering에 맞춰 설치 맥락, 재사용 가능한 템플릿, few-shot 예시, structured outputs, 프롬프트 최적화 워크플로를 다룹니다.
작성자 wshobson
rag-implementation은 vector databases, embeddings, retrieval patterns, grounded-answer workflows를 바탕으로 RAG 시스템을 설계할 때 실무적으로 참고하기 좋은 스킬입니다. document Q&A, knowledge assistants, semantic search 용도에서 스택 옵션을 비교하고, 아키텍처 결정을 구체화하며, 설치와 활용 방향을 잡는 데 유용합니다.
작성자 wshobson
similarity-search-patterns는 시맨틱 검색과 RAG 워크플로를 위한 거리 지표, 인덱스 유형, 하이브리드 검색 패턴을 선택할 때 도움을 주는 스킬입니다. 재현율, 지연 시간, 확장성 사이의 운영상 트레이드오프를 고려해 프로덕션 벡터 검색 전략을 설계할 때 활용할 수 있습니다.
작성자 wshobson
hybrid-search-implementation 스킬은 RAG 및 검색 시스템에서 벡터 검색과 키워드 검색을 RRF, 선형 결합, reranking, cascade 패턴과 함께 조합하는 방법을 보여줍니다.
작성자 wshobson
langchain-architecture는 LangChain 1.x와 LangGraph 애플리케이션 설계를 위한 디자인 가이드입니다. 구현에 들어가기 전에 chains, agents, retrieval, memory, stateful orchestration 패턴 중 무엇을 선택할지 판단할 때 유용합니다.
작성자 wshobson
llm-evaluation 스킬을 사용하면 메트릭, 사람 검토, 벤치마킹, 회귀 점검을 바탕으로 LLM 앱, 프롬프트, RAG 시스템, 모델 변경에 대한 반복 가능한 평가 계획을 설계할 수 있습니다.
작성자 wshobson
embedding-strategies는 시맨틱 검색과 RAG 워크플로에 맞는 임베딩 모델을 선택하고 최적화할 수 있도록 돕는 스킬입니다. 청킹 전략, 모델 간 트레이드오프, 다국어 콘텐츠 처리, 검색 성능 평가까지 실무적으로 안내합니다.
작성자 github
ai-prompt-engineering-safety-review는 운영 배포, 평가, 또는 고객 대상 사용 전에 LLM 프롬프트를 점검해 안전성, 편향, 보안 취약점, 출력 품질을 검토하는 프롬프트 감사 스킬입니다.
작성자 github
agentic-eval은 reflection, rubric 기반 비평, evaluator-optimizer 패턴을 활용해 AI 출력에 대한 evaluation loop를 구축하는 방법을 보여주는 GitHub Copilot 스킬입니다.
작성자 vercel
develop-ai-functions-example는 `vercel/ai`의 `examples/ai-functions/src/` 아래에서 실행 가능한 AI SDK 예제를 새로 만들거나 수정할 때 유용합니다. 적절한 카테고리를 고르고, repo 관례에 맞추며, provider 검증·데모·fixture용 최소 예제를 만드는 데 도움이 됩니다.
작성자 huggingface
huggingface-papers는 Hugging Face 논문 페이지를 마크다운으로 읽고 papers API에서 작성자, 연결된 모델, 데이터셋, Spaces, GitHub 저장소, 프로젝트 페이지 등 구조화된 메타데이터를 추출하는 데 도움을 줍니다. Hugging Face 논문 URL, arXiv URL 또는 ID, 그리고 논문 페이지 근거가 필요한 Academic Research 워크플로에 적합합니다.
작성자 huggingface
huggingface-llm-trainer는 TRL 또는 Unsloth를 사용해 Hugging Face Jobs에서 언어 모델과 비전 모델을 학습하거나 파인튜닝할 수 있게 해줍니다. 이 huggingface-llm-trainer skill은 SFT, DPO, GRPO, reward modeling, 데이터셋 점검, GPU 선택, Hub 저장, Trackio 모니터링, 그리고 백엔드 개발 워크플로를 위한 GGUF export에 활용할 수 있습니다.
작성자 huggingface
huggingface-local-models는 Hugging Face 모델 중 llama.cpp와 GGUF로 로컬 실행 가능한 모델을 찾고, 실용적인 양자화 버전을 고른 뒤 CPU, Apple Metal, CUDA, 또는 ROCm에서 바로 실행할 수 있도록 돕습니다. 모델 탐색, 정확한 GGUF 파일 찾기, 서버/CLI 설정, 그리고 백엔드 개발과 비공개 로컬 추론을 위한 빠른 경로까지 다룹니다.
작성자 huggingface
huggingface-community-evals는 inspect-ai 또는 lighteval로 Hugging Face Hub 모델 평가를 로컬에서 실행할 수 있게 도와줍니다. 백엔드 선택, 스모크 테스트, 그리고 vLLM, Transformers, accelerate 활용 가이드를 확인할 때 유용합니다. HF Jobs 오케스트레이션, model-card PR, .eval_results 게시, community-evals 자동화 용도에는 맞지 않습니다.
작성자 alinaqi
llm-patterns는 LLM이 추론, 추출, 생성을 맡고 코드는 검증, 라우팅, 오류 처리를 담당하는 AI 우선 애플리케이션 로직을 설계하도록 돕습니다. 더 명확한 프롬프트 구조, 테스트 가능한 LLM 워크플로, 그리고 Skill Authoring에 실용적인 가이드를 원할 때 llm-patterns 스킬을 사용하세요.
작성자 mukul975
detecting-ai-model-prompt-injection-attacks는 LLM에 닿기 전에 신뢰할 수 없는 텍스트를 선별하는 보안 skill입니다. 레이어드 정규식, 휴리스틱 점수화, DeBERTa 기반 분류를 활용해 직접적·간접적 프롬프트 인젝션 공격을 탐지합니다. 챗봇 입력 검증, 문서 수집, 위협 모델링에 특히 유용합니다.