Llm

Llm taxonomy generated by the site skill importer.

25 skills
A
regex-vs-llm-structured-text

bởi affaan-m

Skill regex-vs-llm-structured-text giúp chọn giữa regex và LLM cho trích xuất văn bản có cấu trúc. Hãy bắt đầu bằng phân tích xác định, thêm bước kiểm tra bằng LLM cho các trường hợp biên ít chắc chắn, và dùng một pipeline rẻ hơn, đáng tin cậy hơn cho tài liệu, biểu mẫu, hóa đơn và phân tích dữ liệu.

Data Analysis
Yêu thích 0GitHub 156.2k
A
llm-trading-agent-security

bởi affaan-m

llm-trading-agent-security là một hướng dẫn thực tiễn để bảo vệ các tác nhân giao dịch tự động có quyền truy cập ví. Nội dung bao gồm chống prompt injection, giới hạn chi tiêu, mô phỏng trước khi gửi, cơ chế ngắt mạch, thực thi có tính đến MEV và cô lập khóa nhằm giảm rủi ro thua lỗ tài chính trong một Security Audit.

Security Audit
Yêu thích 0GitHub 156.2k
A
foundation-models-on-device

bởi affaan-m

foundation-models-on-device giúp bạn xây dựng các tính năng Apple FoundationModels trên iOS 26+ với tạo văn bản ngay trên thiết bị, đầu ra có hướng dẫn bằng @Generable, gọi công cụ, phát trực tuyến snapshot và kiểm tra khả dụng cho các ứng dụng ưu tiên quyền riêng tư.

Backend Development
Yêu thích 0GitHub 156.1k
A
cost-aware-llm-pipeline

bởi affaan-m

cost-aware-llm-pipeline giúp bạn xây dựng các workflow LLM kiểm soát chi phí API bằng định tuyến model, theo dõi chi phí bất biến, xử lý retry và cache prompt. Phù hợp cho batch job, pipeline tài liệu và Workflow Automation, nơi cần quy tắc rõ ràng cho đánh đổi giữa khối lượng đầu ra và chất lượng.

Workflow Automation
Yêu thích 0GitHub 156.1k
S
fact-checker

bởi Shubhamsaboo

fact-checker là kỹ năng chạy theo prompt để xác minh tuyên bố theo cấu trúc, đánh giá nguồn và đưa ra kết luận rõ ràng kèm mức độ tin cậy và ngữ cảnh. Bạn có thể cài từ Shubhamsaboo/awesome-llm-apps để fact-check phát ngôn, tin đồn, số liệu thống kê và các tuyên bố gây hiểu lầm theo một quy trình lặp lại, nhất quán.

Fact Checking
Yêu thích 0GitHub 104.2k
S
deep-research

bởi Shubhamsaboo

deep-research là một skill agent gọn nhẹ cho nghiên cứu web có cấu trúc. Skill này giúp làm rõ phạm vi, thu thập nhiều nguồn, đánh giá độ tin cậy và tổng hợp phát hiện có trích dẫn trong một quy trình SKILL.md duy nhất.

Web Research
Yêu thích 0GitHub 104.2k
G
cso

bởi garrytan

cso là kỹ năng kiểm tra bảo mật theo phong cách Chief Security Officer dành cho tác nhân. Kỹ năng này giúp rà soát codebase và workflow để phát hiện lộ bí mật, rủi ro về dependency và supply chain, bảo mật CI/CD, cũng như bảo mật LLM/AI bằng OWASP Top 10 và STRIDE. Hãy dùng cso cho các cuộc rà soát Security Audit có cấu trúc, với cổng tin cậy, xác minh chủ động và theo dõi xu hướng.

Security Audit
Yêu thích 0GitHub 91.8k
W
evaluation-methodology

bởi wshobson

Skill evaluation-methodology giải thích cách chấm điểm PluginEval cho Model Evaluation, bao gồm các lớp đánh giá, rubric, điểm tổng hợp, ngưỡng badge và hướng dẫn thực tế để đọc kết quả cũng như cải thiện các khía cạnh còn yếu.

Model Evaluation
Yêu thích 0GitHub 32.6k
W
prompt-engineering-patterns

bởi wshobson

prompt-engineering-patterns là một skill thực tiễn cho thiết kế prompt dùng trong production, bao quát bối cảnh cài đặt, mẫu tái sử dụng, ví dụ few-shot, structured outputs và quy trình tối ưu prompt cho Context Engineering.

Context Engineering
Yêu thích 0GitHub 32.6k
W
rag-implementation

bởi wshobson

rag-implementation là một skill thực tiễn để lập kế hoạch hệ thống RAG với vector database, embeddings, các mô hình retrieval và quy trình trả lời có căn cứ. Hãy dùng skill này để so sánh các lựa chọn trong stack, định hình quyết định kiến trúc, đồng thời định hướng cài đặt và sử dụng cho hỏi đáp tài liệu, trợ lý tri thức và tìm kiếm ngữ nghĩa.

RAG Workflows
Yêu thích 0GitHub 32.6k
W
similarity-search-patterns

bởi wshobson

similarity-search-patterns giúp bạn chọn distance metric, loại index và các mẫu hybrid retrieval cho semantic search và quy trình RAG. Hãy dùng skill này để lên kế hoạch cho các đánh đổi của vector search trong môi trường production về recall, latency và khả năng mở rộng.

RAG Workflows
Yêu thích 0GitHub 32.6k
W
hybrid-search-implementation

bởi wshobson

Skill hybrid-search-implementation hướng dẫn cách kết hợp truy xuất vector và từ khóa bằng RRF, linear fusion, reranking và các mẫu cascade cho hệ thống RAG và tìm kiếm.

RAG Workflows
Yêu thích 0GitHub 32.6k
W
langchain-architecture

bởi wshobson

langchain-architecture là hướng dẫn thiết kế để xây dựng ứng dụng LangChain 1.x và LangGraph. Hãy dùng skill này để chọn giữa chains, agents, retrieval, memory và các mẫu điều phối có trạng thái trước khi bắt tay vào triển khai.

Agent Orchestration
Yêu thích 0GitHub 32.6k
W
llm-evaluation

bởi wshobson

Dùng kỹ năng llm-evaluation để thiết kế kế hoạch đánh giá có thể lặp lại cho ứng dụng LLM, prompt, hệ thống RAG và các thay đổi mô hình với metric, đánh giá thủ công, benchmarking và kiểm tra hồi quy.

Model Evaluation
Yêu thích 0GitHub 32.6k
W
embedding-strategies

bởi wshobson

embedding-strategies giúp bạn chọn và tối ưu mô hình embedding cho tìm kiếm ngữ nghĩa và quy trình RAG, với hướng dẫn thực tế về chia đoạn, đánh đổi giữa các mô hình, nội dung đa ngôn ngữ và đánh giá chất lượng truy xuất.

RAG Workflows
Yêu thích 0GitHub 32.6k
G
ai-prompt-engineering-safety-review

bởi github

ai-prompt-engineering-safety-review là kỹ năng kiểm tra prompt giúp rà soát prompt LLM về độ an toàn, thiên lệch, điểm yếu bảo mật và chất lượng đầu ra trước khi đưa vào production, đánh giá hoặc dùng cho khách hàng.

Model Evaluation
Yêu thích 0GitHub 27.8k
G
agentic-eval

bởi github

agentic-eval là một skill GitHub Copilot minh họa cách xây dựng các vòng lặp đánh giá cho đầu ra AI bằng reflection, phê bình theo rubric và các mô hình evaluator-optimizer.

Model Evaluation
Yêu thích 0GitHub 27.8k
V
develop-ai-functions-example

bởi vercel

develop-ai-functions-example giúp bạn tạo mới hoặc chỉnh sửa các ví dụ AI SDK có thể chạy được trong vercel/ai tại `examples/ai-functions/src/`. Dùng skill này để chọn đúng nhóm ví dụ, bám sát quy ước của repo và xây dựng các ví dụ tối giản phục vụ kiểm thử nhà cung cấp, demo hoặc fixture.

Skill Examples
Yêu thích 0GitHub 23.1k
H
huggingface-papers

bởi huggingface

huggingface-papers giúp bạn đọc các trang bài báo trên Hugging Face ở dạng markdown và trích xuất metadata có cấu trúc từ papers API, bao gồm tác giả, model được liên kết, dataset, Spaces, repo GitHub và trang dự án. Hãy dùng nó cho các URL bài báo trên Hugging Face, URL hoặc ID arXiv, và các quy trình Academic Research cần bằng chứng từ trang bài báo.

Academic Research
Yêu thích 0GitHub 10.4k
H
huggingface-llm-trainer

bởi huggingface

huggingface-llm-trainer giúp bạn huấn luyện hoặc fine-tune các mô hình ngôn ngữ và thị giác trên Hugging Face Jobs bằng TRL hoặc Unsloth. Dùng skill huggingface-llm-trainer cho SFT, DPO, GRPO, reward modeling, kiểm tra dataset, chọn GPU, lưu lên Hub, theo dõi bằng Trackio và xuất GGUF cho các quy trình phát triển backend.

Backend Development
Yêu thích 0GitHub 10.4k
H
huggingface-local-models

bởi huggingface

huggingface-local-models giúp bạn tìm các model trên Hugging Face có thể chạy cục bộ với llama.cpp và GGUF, chọn mức quant phù hợp, và khởi chạy trên CPU, Apple Metal, CUDA hoặc ROCm. Skill này bao quát việc khám phá model, dò đúng file GGUF, thiết lập theo kiểu server hay CLI, và một lối đi nhanh cho phát triển backend cũng như suy luận cục bộ riêng tư.

Backend Development
Yêu thích 0GitHub 10.4k
H
huggingface-community-evals

bởi huggingface

huggingface-community-evals giúp bạn chạy đánh giá model trên Hugging Face Hub ngay trên máy cục bộ với inspect-ai hoặc lighteval. Dùng khi cần chọn backend, chạy smoke test, và xem hướng dẫn thực tế cho vLLM, Transformers hoặc accelerate. Không phù hợp cho điều phối HF Jobs, tạo PR cho model card, xuất bản .eval_results, hay tự động hóa community-evals.

Model Evaluation
Yêu thích 0GitHub 10.4k
A
llm-patterns

bởi alinaqi

llm-patterns giúp bạn thiết kế logic ứng dụng ưu tiên AI, trong đó LLM đảm nhiệm suy luận, trích xuất và sinh nội dung, còn code xử lý xác thực, định tuyến và xử lý lỗi. Hãy dùng kỹ năng llm-patterns để có cấu trúc prompt rõ ràng hơn, quy trình LLM có thể kiểm thử, và hướng dẫn thực tế cho Skill Authoring.

Skill Authoring
Yêu thích 0GitHub 607
M
detecting-ai-model-prompt-injection-attacks

bởi mukul975

detecting-ai-model-prompt-injection-attacks là một skill an ninh mạng dùng để sàng lọc văn bản không đáng tin cậy trước khi nội dung đó đến LLM. Skill này kết hợp regex nhiều lớp, chấm điểm theo heuristic và phân loại dựa trên DeBERTa để phát hiện các tấn công prompt injection trực tiếp lẫn gián tiếp. Hữu ích cho kiểm tra đầu vào chatbot, nạp tài liệu và Threat Modeling.

Threat Modeling
Yêu thích 0GitHub 0
Llm