x-twitter-scraper
作者 Xquik-dev使用 x-twitter-scraper 通过 Xquik 获取 X(Twitter)数据和需要确认的操作。它支持推文搜索、用户查询、粉丝提取、媒体下载、监控、webhook、MCP 和写入操作。适合基于 API key 的网页抓取式研究,不适合使用 X 登录凭证。
该技能得分 84/100,说明它非常适合需要基于 Xquik 的 X/Twitter 数据和需要确认的操作的用户。仓库提供了足够的操作细节,便于代理触发该技能、理解仅 API 的工作流,并做出有依据的安装决策;但部分端点细节仍需要借助外部文档确认。
- 触发范围明确,涵盖推文搜索、用户查询、粉丝提取、媒体下载、监控、webhook、MCP 和写入操作,便于快速判断是否适合安装。
- 操作说明清晰:frontmatter 明确写出仅使用 API key 认证、需要联网、且不使用 X 登录凭证,减少猜测和安全歧义。
- 配套参考资料较丰富,包括 API endpoints、工作流、MCP 设置/工具、定价、安全与示例,有助于提升代理可用性和落地信心。
- SKILL.md 中没有安装命令,因此设置过程有文档说明,但对目录用户来说不是自动化安装。
- 部分工作流细节分散在多个参考文件中,而且 API 摘录有截断,用户可能仍需查阅外部文档才能获得完整的端点信息。
x-twitter-scraper 技能概览
x-twitter-scraper 能做什么
x-twitter-scraper 技能可以让你通过 Xquik 获取 X(Twitter)数据,并执行需要确认的 X 操作,而无需先自己搭建定制集成。它特别适合需要用一种实用方式来搜索推文、查看用户、提取关注者、下载媒体、运行监控,或在 agent 工作流中调用基于 API 的写入操作的人。
适合谁使用
如果你在做 x-twitter-scraper for Web Scraping、自动化、数据丰富化,或者 agent 辅助研究,并且希望走第一方 API 路径,而不是脆弱的页面抓取,那么就该用 x-twitter-scraper skill。它适合开发者、分析师以及 AI agent,只要你能提供清晰目标,比如用户名、推文 URL、推文 ID 或搜索查询。
采用前需要注意什么
主要决策点很简单:你需要 XQUIK_API_KEY、可访问互联网,以及接受基于 credit 的 API 模式。这个技能不是浏览器抓取器,也不使用 X 登录密钥、cookies、密码或 2FA。这样做对工具调用更安全,但也意味着你的 prompt 必须明确写出你要执行的具体 Xquik 任务。
如何使用 x-twitter-scraper 技能
安装以及优先阅读的文件
对于 x-twitter-scraper install,先使用仓库中的 skill 路径,然后在向 agent 提示之前阅读核心文档。先看 SKILL.md,再检查 metadata.json、references/api-endpoints.md、references/extractions.md、references/workflows.md 和 references/security.md。如果你计划使用 agent 集成,还要阅读 references/mcp-setup.md 和 references/mcp-tools.md。
把模糊目标变成可执行的 prompt
在 x-twitter-scraper usage 中,给这个技能一个具体任务、一个明确目标,以及你想要的输出形式。好的 prompt 会直接写出对象和动作:“查找 @username 最近关于发布公告的帖子,并返回一个紧凑表格,包含 tweet URL、日期和互动量。” 更好的 prompt 还会说明约束:日期范围、语言、最少关注者数、是否包含回复或转推,以及你想要 raw JSON 还是摘要。
实用工作流与仓库阅读顺序
一个可靠的 x-twitter-scraper guide 工作流是:先识别 endpoint 家族,确认计费或 credit 影响,先用窄查询测试,再逐步扩展。对于提取任务,先读 references/extractions.md,因为它会告诉你所需的目标字段,并建议在批量任务运行前先估算 credits。对于监控、webhook 或写入操作,在执行前先阅读 workflow 和 security 参考文档,这样 agent 才能遵守确认门槛,避免不受支持的假设。
能提升输出质量的 prompt 模式
尽量使用标识符,而不是模糊描述。tweetUrl、targetUsername、targetTweetId 以及具体筛选条件,通常比“抓那个账号”效果更好。如果你需要关注者,请说明你要的是全部关注者、认证关注者、共同关注者,还是用于抽奖筛选的关注者。如果你需要媒体,请说明你想要下载链接、文件名,还是可用资源清单报告。
x-twitter-scraper 技能 FAQ
这和普通的 prompt scraping 一样吗?
不一样。x-twitter-scraper 技能建立在 Xquik 的 API 和 MCP 接口之上,因此比让模型自己浏览网页并推断结果更确定。通常这意味着更好的可重复性、更清晰的速率与计费行为,以及在处理私有或需要确认的操作时更少的猜测。
我需要 X 登录凭据吗?
不需要。这个技能是围绕 API key 访问设计的。它明确不会收集 X 密码、会话 cookies 或 TOTP 代码,这也是它比基于浏览器登录的自动化更值得优先考虑的原因之一。
它适合新手吗?
适合,只要你能提供精确目标,并接受 API 风格的输入。对于想要“抓取全部内容”但没有任何约束的用户,它并不理想。新手最容易拿到好结果的方式,是从一个 endpoint 家族、一个账号或一条推文,以及一种预期输出格式开始。
什么时候不该用 x-twitter-scraper?
如果你的任务依赖本地浏览器自动化、未经认证的页面爬取,或者需要人工 X 会话才能访问,就不要用它。对于那种只需要一次性答案、又不足以支撑 API 配置、credits 或 endpoint 选择的任务,它也不是好选择。
如何改进 x-twitter-scraper 技能
提供更强的输入
提升质量最大的办法就是把输入做得更精准:准确的 URL、用户名、ID、日期窗口和筛选条件。不要只说“找 influencers”,而要说“找关注 @brand 的认证账号,粉丝数至少 1 万,bio 需要是英文”。不要只说“监控一个话题”,而要明确关键词、频率,以及你要的是提醒、摘要还是原始事件 payload。
选对 endpoint 家族
很多失败都来自把任务类型选错了。搜索、直接查找、提取、媒体下载、监控、webhook 投递、MCP 和写入操作,都是不同的工作流,成本和约束也不同。x-twitter-scraper 技能最适合在你先把请求对应到正确的 endpoint 家族之后,再去扩大范围。
第一次运行后继续迭代
如果第一次输出太宽泛,就收紧筛选条件,而不是整段重写 prompt。可以加上时间范围、语言、最低关注者阈值,或者结果上限。如果结果太少,就一次只放宽一个限制。对于批量提取任务,先走估算步骤,这样可以避免浪费 credits,并在执行前确认任务是被允许的。
