Llm

Llm taxonomy generated by the site skill importer.

24 件のスキル
A
regex-vs-llm-structured-text

作成者 affaan-m

regex-vs-llm-structured-text は、構造化テキスト抽出で regex と LLM のどちらを使うかを判断するためのスキルです。まずは決定論的なパースから始め、信頼度の低い例外ケースには LLM による検証を追加。文書、フォーム、請求書、データ分析では、より安価で信頼性の高いパイプラインを構築できます。

Data Analysis
お気に入り 0GitHub 156.2k
A
llm-trading-agent-security

作成者 affaan-m

llm-trading-agent-security は、ウォレット権限を持つ自律型トレーディングエージェントを安全にするための実践ガイドです。プロンプトインジェクション、支出上限、送信前シミュレーション、サーキットブレーカー、MEVを意識した実行、鍵の分離を扱い、Security Audit における金銭損失リスクの低減に役立ちます。

Security Audit
お気に入り 0GitHub 156.2k
A
foundation-models-on-device

作成者 affaan-m

foundation-models-on-device は、iOS 26+ で Apple FoundationModels の機能を構築するためのガイドです。オンデバイスのテキスト生成、@Generable を使ったガイド付き出力、tool calling、snapshot streaming、利用可否チェックまで、プライバシー重視のアプリに必要な要素をまとめています。

Backend Development
お気に入り 0GitHub 156.1k
A
cost-aware-llm-pipeline

作成者 affaan-m

cost-aware-llm-pipelineは、モデルルーティング、不変のコスト追跡、リトライ処理、プロンプトキャッシュによって、APIコストを抑えたLLMワークフローの構築を支援します。出力量と品質のトレードオフに明確なルールが必要なバッチ処理、ドキュメントパイプライン、Workflow Automationに適しています。

Workflow Automation
お気に入り 0GitHub 156.1k
S
fact-checker

作成者 Shubhamsaboo

fact-checker は、主張の検証を構造的に進め、情報源を評価し、確信度と文脈付きで分かりやすい判定を返すプロンプト駆動型スキルです。Shubhamsaboo/awesome-llm-apps から導入すれば、発言、噂、統計、不正確または誤解を招く主張のファクトチェックを、再現しやすいワークフローで進められます。

Fact Checking
お気に入り 0GitHub 104.2k
S
deep-research

作成者 Shubhamsaboo

deep-research は、構造化された Web リサーチ向けの軽量なエージェントスキルです。調査範囲の明確化、複数ソースの収集、信頼性の見極め、出典付きの知見整理までを、1つの SKILL.md ワークフローで進めやすくします。

Web Research
お気に入り 0GitHub 104.2k
G
cso

作成者 garrytan

cso は、エージェント向けの Chief Security Officer 風セキュリティ監査スキルです。Secrets の露出、依存関係とサプライチェーンのリスク、CI/CD のセキュリティ、LLM/AI セキュリティを、OWASP Top 10 と STRIDE を使ってコードベースとワークフローの両面からレビューするのに役立ちます。信頼度ゲート、アクティブ検証、トレンド追跡を備えた構造化された Security Audit レビューに cso を使ってください。

Security Audit
お気に入り 0GitHub 91.8k
W
evaluation-methodology

作成者 wshobson

evaluation-methodologyは、Model EvaluationにおけるPluginEvalの採点方法を解説するスキルです。評価レイヤー、ルーブリック、合成スコア、バッジ閾値に加え、結果の読み解き方や弱い評価軸の改善に役立つ実践的な指針を確認できます。

Model Evaluation
お気に入り 0GitHub 32.6k
W
prompt-engineering-patterns

作成者 wshobson

prompt-engineering-patterns は、本番運用を見据えたプロンプト設計に役立つ実践的なスキルです。導入時の前提整理、再利用しやすいテンプレート、few-shot examples、structured outputs、さらに Context Engineering のためのプロンプト最適化ワークフローまで幅広くカバーします。

Context Engineering
お気に入り 0GitHub 32.6k
W
rag-implementation

作成者 wshobson

rag-implementationは、ベクターデータベース、埋め込み、検索パターン、根拠に基づく回答フローを踏まえてRAGシステムを設計するための実践的なスキルです。スタック候補の比較、アーキテクチャ判断の整理、ドキュメントQ&A・ナレッジアシスタント・セマンティック検索向けの導入や活用方針の検討に役立ちます。

RAG Workflows
お気に入り 0GitHub 32.6k
W
similarity-search-patterns

作成者 wshobson

similarity-search-patterns は、セマンティック検索や RAG ワークフローに向けて、距離指標、インデックス方式、ハイブリッド検索パターンの選定を支援するスキルです。再現率・レイテンシ・スケールのバランスを踏まえ、プロダクション環境のベクトル検索設計を検討したいときに役立ちます。

RAG Workflows
お気に入り 0GitHub 32.6k
W
hybrid-search-implementation

作成者 wshobson

hybrid-search-implementation スキルは、RAG や検索システム向けに、ベクトル検索とキーワード検索を組み合わせ、RRF、線形融合、reranking、cascade パターンを実装する方法を示します。

RAG Workflows
お気に入り 0GitHub 32.6k
W
langchain-architecture

作成者 wshobson

langchain-architecture は、LangChain 1.x と LangGraph アプリケーションを設計するためのガイドです。実装に入る前に、chains、agents、retrieval、memory、stateful orchestration のどのパターンを採用するか整理・判断するのに役立ちます。

Agent Orchestration
お気に入り 0GitHub 32.6k
W
llm-evaluation

作成者 wshobson

llm-evaluation スキルを使うと、LLMアプリ、プロンプト、RAGシステム、モデル変更に対して、指標設計、人手レビュー、ベンチマーク、リグレッションチェックを組み合わせた再現性のある評価計画を設計できます。

Model Evaluation
お気に入り 0GitHub 32.6k
W
embedding-strategies

作成者 wshobson

embedding-strategies は、セマンティック検索や RAG ワークフロー向けに埋め込みモデルを選定・最適化するためのスキルです。チャンク分割の実践、モデル選定のトレードオフ、多言語コンテンツへの対応、検索評価の進め方まで、実務で役立つ観点をまとめて確認できます。

RAG Workflows
お気に入り 0GitHub 32.6k
G
ai-prompt-engineering-safety-review

作成者 github

ai-prompt-engineering-safety-review は、LLMプロンプトを本番導入前、評価時、または顧客向け利用前に見直し、安全性・バイアス・セキュリティ上の弱点・出力品質を監査するためのプロンプトレビュー用スキルです。

Model Evaluation
お気に入り 0GitHub 27.8k
G
agentic-eval

作成者 github

agentic-eval は、reflection、rubric ベースの批評、evaluator-optimizer パターンを使って、AI 出力の評価ループをどう構築するかを示す GitHub Copilot スキルです。

Model Evaluation
お気に入り 0GitHub 27.8k
V
develop-ai-functions-example

作成者 vercel

develop-ai-functions-example は、vercel/ai の `examples/ai-functions/src/` 配下で実行可能な AI SDK サンプルを新規作成・修正するときに役立つスキルです。適切なカテゴリ選定、リポジトリ規約への準拠、プロバイダ検証・デモ・fixture 向けの最小構成のサンプル作成を進めやすくします。

Skill Examples
お気に入り 0GitHub 23.1k
H
huggingface-papers

作成者 huggingface

huggingface-papers は、Hugging Face の論文ページを markdown で読み取り、papers API から著者、関連モデル、データセット、Spaces、GitHub リポジトリ、プロジェクトページなどの構造化メタデータを抽出するのに役立ちます。Hugging Face の論文ページ URL、arXiv の URL または ID、そして論文ページの根拠が必要な Academic Research のワークフローに向いています。

Academic Research
お気に入り 0GitHub 10.4k
H
huggingface-llm-trainer

作成者 huggingface

huggingface-llm-trainer は、Hugging Face Jobs 上で TRL または Unsloth を使い、言語モデルや視覚モデルを学習・ファインチューニングするのに役立ちます。この huggingface-llm-trainer スキルは、SFT、DPO、GRPO、reward modeling、データセット検証、GPU 選定、Hub への保存、Trackio 監視、さらにバックエンド開発ワークフロー向けの GGUF 書き出しまでカバーします。

Backend Development
お気に入り 0GitHub 10.4k
H
huggingface-local-models

作成者 huggingface

huggingface-local-models は、Hugging Face のモデルの中から llama.cpp と GGUF でローカル実行できるものを見つけ、実用的な量子化設定を選び、CPU、Apple Metal、CUDA、ROCm で起動するためのスキルです。モデル探索、正確な GGUF ファイルの特定、サーバー/CLI のセットアップ、そしてバックエンド開発やプライベートなローカル推論にすぐ使える導線までカバーします。

Backend Development
お気に入り 0GitHub 10.4k
H
huggingface-community-evals

作成者 huggingface

huggingface-community-evals は、inspect-ai または lighteval を使って Hugging Face Hub のモデル評価をローカルで実行するのに役立ちます。バックエンドの選定、スモークテスト、vLLM・Transformers・accelerate の実践的な使い分けガイドに適しています。HF Jobs のオーケストレーション、model-card の PR、.eval_results の公開、community-evals の自動化には向きません。

Model Evaluation
お気に入り 0GitHub 10.4k
A
llm-patterns

作成者 alinaqi

llm-patterns は、LLM が推論・抽出・生成を担い、コードが検証・ルーティング・エラー処理を担う、AIファーストなアプリケーションロジックの設計を支援します。より明確なプロンプト構造、テスト可能な LLM ワークフロー、Skill Authoring に役立つ実践的なガイダンスを得るために、この llm-patterns スキルを活用してください。

Skill Authoring
お気に入り 0GitHub 607
A
ai-models

作成者 alinaqi

ai-models は、タスク、コスト、レイテンシー、品質を基準に、現在のAIモデルを選ぶための参照用スキルです。チャット、コーディング、画像認識、埋め込み、音声、画像生成において、スキル作者やビルダーが素早く根拠のあるモデル選定を行えるようにします。

Skill Authoring
お気に入り 0GitHub 0
Llm