X

x-twitter-scraper

作者 Xquik-dev

使用 x-twitter-scraper 透過 Xquik 擷取 X(Twitter)資料與需要確認的動作。它支援貼文搜尋、使用者查詢、粉絲擷取、媒體下載、監控、webhooks、MCP 與寫入動作。最適合搭配 API key 進行類網頁爬蟲的研究,不適合使用 X 登入憑證。

Stars71
收藏0
評論0
加入時間2026年5月10日
分類网页抓取
安裝指令
npx skills add Xquik-dev/x-twitter-scraper --skill x-twitter-scraper
編輯評分

這個技能評分為 84/100,屬於適合需要透過 Xquik 取得 X/Twitter 資料與確認式動作的實用目錄項目。儲存庫提供了足夠的操作細節,讓代理能觸發技能、理解僅限 API 的流程,並做出有依據的安裝決策;但部分端點細節仍可能需要參考外部文件。

84/100
亮點
  • 觸發範圍明確,涵蓋貼文搜尋、使用者查詢、粉絲擷取、媒體下載、監控、webhooks、MCP 與寫入動作,安裝意圖容易對應。
  • 操作說明清楚:frontmatter 明載僅使用 API key、需要網路連線、且不使用 X 登入憑證,能降低猜測與安全疑慮。
  • 支援參考內容相當完整,包括 API 端點、工作流程、MCP 設定/工具、價格、安全性與範例,有助於提升代理可用性與實作信心。
注意事項
  • SKILL.md 中沒有安裝指令,因此雖然有設定說明,但對目錄使用者來說並非自動化安裝。
  • 部分工作流程細節分散在多個參考檔案中,且 API 摘錄有截斷情況,因此使用者可能仍需查閱外部文件以取得完整端點資訊。
總覽

x-twitter-scraper 技能總覽

x-twitter-scraper 是做什麼的

x-twitter-scraper 技能可以讓你透過 Xquik 取得 X(Twitter)資料,並執行需要確認才會送出的 X 動作,而不必先自己打造客製整合。它特別適合需要實用方式來搜尋推文、檢視使用者、擷取追蹤者、下載媒體、執行監控,或在代理流程中呼叫由 API 支援的寫入動作的人。

誰適合使用

如果你正在做 x-twitter-scraper for Web Scraping、自動化、資料增補,或代理協助研究,而且希望走第一方 API 路徑,而不是脆弱的頁面爬蟲,那就適合使用 x-twitter-scraper skill。它很適合開發者、分析師,以及能提供明確目標的 AI 代理,例如使用者名稱、推文 URL、推文 ID 或搜尋查詢。

採用前要先注意什麼

主要的判斷點很單純:你需要 XQUIK_API_KEY、可以連上網路,並且接受以點數計費的 API。這個技能不是瀏覽器爬蟲,也不會使用 X 登入密鑰、cookie、密碼或 2FA。這讓它在工具使用上更安全,但也代表你的提示詞必須明確指定你要哪一個 Xquik 工作項目。

如何使用 x-twitter-scraper 技能

安裝與先讀哪些檔案

進行 x-twitter-scraper install 時,先使用儲存庫中的技能路徑,接著在提示代理之前先讀核心文件。先從 SKILL.md 開始,再查看 metadata.jsonreferences/api-endpoints.mdreferences/extractions.mdreferences/workflows.mdreferences/security.md。如果你打算使用代理整合,也要一併閱讀 references/mcp-setup.mdreferences/mcp-tools.md

把模糊目標改成可用提示詞

x-twitter-scraper usage 時,請只交代一個具體工作、一個目標,和你想要的輸出格式。好的提示詞會直接點出物件與任務:例如「找出 @username 最近發布的、與產品發表相關的貼文,並回傳一個精簡表格,包含推文 URL、日期與互動數。」更好的提示詞還會補上限制條件:日期範圍、語言、最低追蹤者數、是否要包含回覆或轉推,以及你要原始 JSON 還是摘要。

實際工作流程與儲存庫閱讀順序

一個可靠的 x-twitter-scraper guide 工作流程是:先辨識端點家族、確認計費或點數影響、用窄範圍查詢測試,然後再擴大。若是擷取任務,先讀 references/extractions.md,因為它會告訴你必填的目標欄位,並建議你在批次作業前先估算點數。若是監控、webhook 或寫入動作,執行前要先讀工作流程與安全性參考資料,這樣代理才能尊重確認門檻,避免做出不被支援的假設。

能明顯改善結果的提示詞模式

盡可能使用識別碼,而不是模糊描述。tweetUrltargetUsernametargetTweetId,再加上明確篩選條件,通常都會比「抓那個帳號」得到更好的結果。如果你需要追蹤者,要先說明你要全部追蹤者、已驗證追蹤者、互相關注者,還是要用於抽獎篩選的追蹤者。如果你需要媒體,也要講清楚你要的是下載連結、檔名,還是可用資產清單的報告。

x-twitter-scraper 技能常見問題

這跟一般的提示詞式抓取一樣嗎?

不是。x-twitter-scraper 技能是建立在 Xquik 的 API 與 MCP 介面之上,所以比起叫模型上網瀏覽並自行推斷結果,它的可預測性更高。這通常代表更好的重現性、更清楚的速率與計費行為,以及對私密或需要確認的操作有更少的猜測空間。

我需要 X 登入憑證嗎?

不需要。這個技能是以 API 金鑰存取為核心設計的。它明確避免收集 X 密碼、session cookie 或 TOTP 驗證碼,這也是它比起依賴瀏覽器登入的自動化更值得優先採用的原因之一。

這個技能適合初學者嗎?

適合,但前提是你能提供精確目標,並接受 API 式輸入。對於想要「把全部都抓下來」卻沒有任何限制的使用者來說,它就不太理想。初學者最容易成功的方式,是先從一個端點家族、一個帳號或一則推文、以及一種預期輸出格式開始。

什麼情況下不該用 x-twitter-scraper?

如果你的任務依賴本機瀏覽器自動化、未驗證的頁面爬行,或需要真人 X session 才能存取,就不要用它。若你只是要一次性答案,且不足以合理化 API 設定、點數消耗或端點選擇,那它也不是好選擇。

如何改進 x-twitter-scraper 技能

提供更強的輸入

品質提升最大的關鍵,就是把輸入補強:精確 URL、使用者名稱、ID、日期區間與篩選條件。不要只說「找影響者」,而要說「找出追蹤 @brand、粉絲數至少 1 萬、個人簡介為英文的已驗證帳號」。不要只說「監控某個主題」,而要指定關鍵字、頻率,以及你要的是警示、摘要,還是原始事件 payload。

選對端點家族

很多失敗其實是因為把工作類型指定錯了。搜尋、直接查找、擷取、媒體下載、監控、webhook 傳送、MCP 與寫入動作,彼此是不同的工作流程,也有不同的成本與限制。x-twitter-scraper 技能最有效的用法,是先把需求對準正確的端點家族,再去擴大範圍。

第一次執行後要迭代

如果第一次輸出太廣,就收緊篩選條件,不要整份提示詞重寫。加入時間範圍、語言、最低追蹤者門檻,或結果上限。如果結果太少,就一次只放寬一個限制。針對大量擷取任務,先用估算步驟,這樣可以避免白白消耗點數,也能在執行前先確認該工作是否允許。

評分與評論

尚無評分
分享你的評論
登入後即可為這項技能評分並留言。
G
0/10000
最新評論
儲存中...