作者 affaan-m
videodb 可帮助你从本地文件、URL、RTSP/RTMP 直播流或桌面录制中导入视频和音频;按时间戳搜索片段并查看可播放证据;还可通过剪辑、叠加层、转写、告警和时间线编辑来执行操作。它是面向 VideoDB 视频编辑与直播分析的实用 videodb 指南。
作者 affaan-m
videodb 可帮助你从本地文件、URL、RTSP/RTMP 直播流或桌面录制中导入视频和音频;按时间戳搜索片段并查看可播放证据;还可通过剪辑、叠加层、转写、告警和时间线编辑来执行操作。它是面向 VideoDB 视频编辑与直播分析的实用 videodb 指南。
作者 affaan-m
video-editing 技能可以帮助你更快把现有素材打磨成适合各平台发布的成片。它聚焦剪辑、结构整理、字幕添加、画面重构和轻度增强,适用于 vlog、教程、演示、短视频片段和访谈剪辑。特别适合你已经有原始素材、需要一份实用的 video-editing 指南时使用。
作者 affaan-m
ui-demo 帮你用 Playwright 录制更精致的 Web 应用演示视频,支持可见的光标移动和自然的节奏。适用于产品走查、入门引导、功能演示和教程式录屏。建议按“发现 → 预演 → 录制”的流程操作,结果更稳定,尤其适合原型和快速变化的 UI。
作者 affaan-m
remotion-video-creation 是一个面向 Remotion 的 React 视频创作技能。它通过 29 条规则覆盖动画、素材、音频、字幕、图表、composition 和转场,帮助减少渲染失误。适用于 Video Editing 工作流、模板化讲解视频、社媒短片和数据驱动的动态图形。
作者 affaan-m
manim-video 可帮助你规划并制作基于 Manim 的清晰讲解视频,适用于图表、工作流、系统架构图、产品演示和发布视觉内容。如果你想要的是精准的动画说明、以场景为核心的工作流,而不是口播式剪辑,就用 manim-video 技能。它包含实用的 manim-video 安装、场景规划和渲染步骤指南。
作者 openai
transcribe 可将音频或视频转成文本,并支持可选的说话人分离和已知说话人提示。它很适合技术写作、会议纪要、访谈、讲座和内容运营等场景,尤其是在你需要一个可重复使用、输出格式清晰、比通用提示词更少猜测的 transcribe 技能时。
作者 JimLiu
baoyu-youtube-transcript 可从 YouTube URL 或 video ID 提取 transcript、subtitles 和封面图。它支持语言选择、翻译、Markdown 或 SRT 输出、基于缓存的重新格式化,并在 InnerTube API 不可用时回退到 yt-dlp,以更稳定地获取 transcript。
作者 google-labs-code
使用 remotion 技能将 Stitch 项目界面转为精致的讲解视频,支持转场、缩放和文字叠加。内容包含安装步骤、示例文件,以及一套可重复执行的 remotion 视频编辑与适合渲染的合成指南。
作者 heygen-com
website-to-hyperframes 是一个工作流技能,用于把现有网站转成 HyperFrames 视频。当你手头有一个 URL,并希望基于网站真实的设计、文案和素材,制作产品演示、推广片、社媒广告或讲解视频时,就可以使用它。这个仓库支持捕获、设计、脚本、分镜、配音、构建和验证等 Design Implementation 工作流程。
作者 heygen-com
hyperframes 是一项工作流技能,用于在 HyperFrames 中构建基于 HTML 的视频合成。适用于需要结构化、以代码为先的 hyperframes 视频编辑场景,比如标题卡、叠加层、字幕、配音、音频驱动动效和场景转场。它更强调布局、时序和动画决策,而不是泛泛的只靠提示词生成视频请求。
作者 heygen-com
hyperframes-cli 是 HyperFrames 的 CLI 技能,用于在终端中构建、验证、预览和渲染视频项目。可用于项目脚手架搭建、composition 代码检查、编辑预览、转写、TTS、诊断,以及在 AI 辅助的视频编辑工作流中实现可重复的 hyperframes-cli 用法。
作者 remotion-dev
remotion-best-practices 是一份面向 Remotion 的技能指南,聚焦安装、使用与规则化工作流,涵盖动画、素材、音频、字幕、FFmpeg 和 calculateMetadata。
作者 microsoft
azure-ai-contentunderstanding-py 是 Azure AI Content Understanding 的 Python 技能。它可从文档、图像、音频和视频中提取结构化内容,适用于 RAG 工作流和自动化场景。若你需要可靠的多模态提取、Azure 身份验证以及可重复、可直接接入流水线的输出,就适合使用它。
作者 op7418
youtube-clipper 是一个可安装的工作流,用于把 YouTube 视频剪成可直接使用的片段、字幕变体和简短摘要。它支持用于视频编辑、双语字幕和可导出的剪辑,且比通用提示词更少依赖手工操作。
作者 Eronred
app-preview-video 可帮助你为产品页和落地页规划、编写脚本并优化 App Store 预览视频和 Google Play 宣传视频。使用这份 app-preview-video 指南,选择合适的开头,适配平台规格,并把屏幕录制整理成更侧重转化的预览视频。
作者 NoizAI
video-translation 技能可将视频中的口语内容翻译成其他语言,生成 TTS 配音,并在保留视频本体不变的前提下替换或混合音频。对于你已经有源视频、字幕和目标翻译语言的实际视频翻译场景,它尤其合适。
作者 NoizAI
speech-to-text 技能可将受支持的音频文件转写为纯文本,并支持时间戳、说话人标签和 JSON 输出。它面向需要稳定、可重复流程的实际 speech-to-text 场景,适用于访谈、会议、播客、讲座,以及对转写一致性要求较高的自动化任务。
作者 NoizAI
tts 技能可将文本转换为语音音频,适用于旁白、配音、配音解说和按时间轴对齐的播放。你可以用它把纯文本生成语音文件,将文章或文本文件转成语音,或生成带时间控制的 SRT 驱动音频。它支持简单模式和时间轴模式,也支持面向后端的工作流,便于重复、稳定地使用 tts。
作者 NoizAI
chat-with-anyone 可从公开音频克隆真实人物的声音,或根据图片设计匹配的声音,再通过 TTS 生成合成回复。它支持角色扮演、旁白和语音生成等实用工作流,并提供安装、素材选择和安全使用方面的指导。
作者 pexoai
videoagent-video-studio 是一款可根据文本、图片和参考素材生成短篇 AI 视频的技能。你可以用它测试 text-to-video 与 image-to-video 工作流,对比支持的模型,并在 Node 18+ 环境下使用托管代理或自托管方案运行。
作者 pexoai
videoagent-image-studio 是一款面向 Node agent 的统一图像生成技能。它为 Midjourney、Flux、Ideogram、Recraft、SDXL 等模型提供单一 CLI 工作流,并具备基于代理的配置、模型选择指引和适合自动化的标准化输出。
作者 pexoai
pexoai-agent 是一个由 shell 脚本驱动的 skill,用于通过 Pexo 的托管式 AI 视频服务生成短视频。它覆盖了基于 `~/.pexo/config` 的配置、通过 `pexo-doctor.sh` 进行依赖检查,以及项目创建、异步提交、轮询、上传和素材获取,适合搭建可重复执行的视频生产工作流。
作者 pexoai
veo-3.2-prompter 是一项面向 Google Veo 3.x 工作流的提示词设计技能,可将混合素材和模糊意图整理为结构化 JSON 提示,包含参考素材角色映射、建议参数,以及适用于安装评估、实际使用和 Veo 就绪提示编写的实用指导。
作者 pexoai
seedance-2.0-prompter 可将多模态 Seedance 2.0 素材整理为结构化 prompts,提供清晰角色定义、`@asset` 语法和可复用模板,方便安装、配置与实际使用。