firecrawl-search
作者 firecrawlfirecrawl-search 是一個用於網頁研究的 skill,可協助找資料來源、執行結構化搜尋,並透過 Firecrawl CLI 視需要將完整頁面內容擷取為 JSON。
此 skill 的評分為 78/100,代表它是相當穩健的目錄收錄候選:對代理來說,觸發線索清楚、CLI 範例具體,且相較於只用一般提示詞進行網頁研究,確實提供了可信的工作流程優勢。若你想要使用 Firecrawl 支援的搜尋,並視需要進行整頁擷取,目錄使用者大致可以判斷值得安裝;但也要預期部分操作細節仍未明說。
- 觸發性強:說明明確對應多種常見使用意圖,例如「search for」、「find me」、「look up」,以及研究/新聞相關請求。
- 操作價值佳:此 skill 提供了基礎搜尋、搜尋加擷取,以及近期新聞等具體指令,並附上 JSON 輸出路徑與關鍵旗標。
- 工作流程契合度高:內容說明了 search 在較完整升級流程中的位置(search → scrape → map → crawl → interact),有助於代理將它選作第一步。
- 採用判斷的清晰度仍有限,因為封裝與支援檔案偏少:SKILL.md 中沒有安裝指令,也缺少配套腳本、參考資料或中繼資料。
- 選項說明看起來只有部分文件化,限制條件與決策規則著墨不多,因此代理在邊界情境或參數選擇上,可能仍需要自行摸索。
firecrawl-search 技能總覽
firecrawl-search 的功能是什麼
firecrawl-search 是一個用於網頁研究的技能,先幫你找出相關頁面,再視需要在同一步把這些頁面的完整內容擷取下來。它特別適合不只想看搜尋摘要的使用者:像是找資料來源、蒐集文章、查近期新聞,以及為後續摘要或比較整理證據。
哪些人適合安裝 firecrawl-search 技能
最適合的是進行 AI 輔助網路研究、但手上還沒有明確目標 URL 的使用者。如果你的工作通常是從「找出和 X 有關的資料來源」、「搜尋最近的報導」或「查大家怎麼討論這件事」開始,這個技能會比泛用提示更直接,因為它能把這類需求轉成可重複執行的 CLI 工作流程,並輸出結構化 JSON。
真正要解決的工作需求
大多數安裝 firecrawl-search 的人,真正想要的是三件事:
- 快速找到相關頁面,
- 視需要抓取完整頁面 markdown,而不只是摘要,
- 把乾淨的結果交給 agent 做彙整、篩選,或後續抓取。
因此,firecrawl-search for Web Research 特別適合當作更大流程中的第一步:search → scrape → map → crawl。
為什麼使用者會選 firecrawl-search,而不是直接用一般提示
firecrawl-search 最明顯的差異,在於它會回傳真正的搜尋結果,而且是機器友善的 JSON 格式;此外還能透過 --scrape 直接附加整頁擷取。和單純要求模型「搜尋網路」相比,它提供了:
- 明確的查詢控制,
- 對來源類型的控制,例如 web 或 news,
- 結果數量限制,
- 更容易做後續解析,
- 把搜尋與分析清楚分開的界線。
安裝前真正該考慮什麼
這個技能的 repo 結構很輕量,但安裝前的重點不是文件多不多,而是它的工作流程是否符合你的任務。若你需要的是「先發現來源,再視情況保留內容」,就適合安裝 firecrawl-search skill。但不要把它當成完整網站爬蟲、瀏覽器自動化工具,或單靠它就能產出最終答案的引擎。
適合與不適合的情境
以下情況適合用 firecrawl-search:
- 你需要某個主題的資料來源,但還不知道 URL,
- 你需要近期新聞或多方觀點,
- 你想把搜尋結果存成檔案,供後續處理。
以下情況則可以跳過:
- 你已經知道要抓取的精確頁面,
- 你需要在整個網站中做深度遍歷,
- 你需要和表單或動態 Web app 進行豐富互動。
如何使用 firecrawl-search 技能
firecrawl-search 的安裝前提
從 repo 片段可看出,這個技能預期透過 CLI 存取:
firecrawl *npx firecrawl *
在已啟用 skills 的環境中,實際可行的 firecrawl-search install 路徑是:
npx skills add https://github.com/firecrawl/cli --skill firecrawl-search
接著請確認你的環境能執行 firecrawl 或 npx firecrawl 指令。
先讀這個檔案
針對這個技能,請先看:
skills/firecrawl-search/SKILL.md
目前看不到有實質內容的支援資料夾,因此大多數採用與否的判斷,幾乎都會來自這個檔案。請先確認裡面描述的觸發語句、指令模式,以及搜尋選項是否符合你的使用情境。
firecrawl-search 的核心指令
上游技能主要圍繞三種模式:
firecrawl search "your query" -o .firecrawl/result.json --json
firecrawl search "your query" --scrape -o .firecrawl/scraped.json --json
firecrawl search "your query" --sources news --tbs qdr:d -o .firecrawl/news.json --json
這三種就涵蓋了主要用法:
- 基本搜尋,
- 搜尋加上整頁擷取,
- 針對近期內容做新聞搜尋。
firecrawl-search 需要什麼樣的輸入
好的 firecrawl-search usage,起點是查詢本身要把以下幾件事講清楚:
- 主題,
- 時間範圍,
- 來源類型,
- 意圖。
較弱的輸入:AI regulation
較強的輸入:EU AI Act enforcement guidance 2025 official commentary
後者相關性通常更高,因為搜尋階段是相對字面匹配的。你的要求若很寬泛,輸出通常也會一樣發散。
如何把模糊需求轉成強而有力的提示
如果使用者說:「幫我找公司怎麼談 open-source AI security」,可以先把它轉成一個明確的呼叫計畫:
- 定義要看的角度:廠商聲明、部落格文章、報告、訪談,
- 定義時效:最近 30 天,或最近一年,
- 定義來源:web 或 news,
- 決定是否一開始就需要擷取完整頁面。
對 firecrawl-search 來說,一個更強的 agent prompt 會像這樣:
Use firecrawl-search to find recent web and news sources about open-source AI security from the last 30 days. Return 10 results in JSON, then scrape the top 5 pages with substantive content for comparison.
這樣的提示比較好,因為它把搜尋範圍、時間尺度、輸出形式,以及後續動作都交代清楚了。
什麼時候該立刻使用 --scrape
當搜尋摘要不夠,而你已經知道後面一定需要頁面本文來做以下工作時,就適合用 --scrape:
- 摘要整理,
- 引文擷取,
- 政策比較,
- 內容分群。
但如果你還在探索一個雜訊很多的主題,第一輪先不要急著 --scrape。先只做搜尋會更快調整查詢;等確認結果集正確,再進行擷取。
如何正確選擇來源類型與時間限制
目前可見的選項包括:
--sources <web,images,news>--limit <n>--tbs ...
對多數研究任務來說:
- 在乎時效時用
--sources news, - 想擴大來源探索時用
--sources web, - 一開始先把
--limit控制在適中的數量,降低雜訊, - 只要需求暗示「近期報導」,就加上
--tbs。
很常見的品質問題,是明明在查偏新聞性的主題,卻沒有加時間篩選,結果把過時和最新報導混在一起。
用 firecrawl-search 做網頁研究的建議流程
一個實用的 firecrawl-search guide 如下:
- 先從較窄的搜尋查詢開始。
- 把 JSON 輸出存到
.firecrawl/...。 - 檢查標題與 URL 是否相關。
- 若結果偏題,就先改寫查詢。
- 只有在結果集品質夠好後,再加上
--scrape重跑。 - 最後再做摘要或內容比較。
這種分階段流程,通常比用一個模糊要求同時做大範圍搜尋與全文擷取更有效。
輸出處理與檔案管理習慣
範例把結果存到像 .firecrawl/result.json 這樣的路徑,建議延續這種做法。原因是:
- 你可以直接檢查原始搜尋輸出,
- agent 能在後續步驟重用這些檔案,
- 你可以把資料發現與內容彙整拆開處理,
- 相比只存在聊天上下文裡的暫時輸出,失敗時更容易除錯。
會直接影響輸出品質的實用技巧
以下幾個習慣,對改善 firecrawl-search usage 很有幫助:
- 在查詢中加入命名實體:公司名、法律名、產品名。
- 補上意圖詞,例如
official、comparison、case study或announcement。 - 將探索階段與擷取階段分開執行。
- 主動指定結果數量,不要預設拉一大批結果。
- 只有在有時間限制時,才用新聞導向查詢。
依賴它之前要先理解的邊界
技能描述明確把 firecrawl-search 定位為:在結構化輸出與可選內容擷取上,比內建網頁搜尋更強;但它仍然有界線:
- 它高度依賴查詢品質,
- 過於寬泛的搜尋會帶來很多雜訊,
- 整頁抓取很有用,但不等於深度網站爬行,
- 它是研究資料取得的一步,不是驗證本身。
firecrawl-search 技能 FAQ
firecrawl-search 比一般「搜尋網路」提示更好嗎?
如果你要的是可重複的研究流程,答案是肯定的。當你需要明確指令、JSON 輸出、可保存檔案,以及可選頁面擷取時,firecrawl-search 會更合適。泛用提示對一次性的好奇查詢或許夠用,但對需要可追溯、可分步進行的研究來說就弱一些。
firecrawl-search 技能對新手友善嗎?
算友善,前提是你願意執行 CLI 指令,並閱讀 JSON 輸出。這個技能呈現出的指令面不大。對新手來說,真正的難點通常不是安裝,而是如何設計查詢。
什麼情況下該用 firecrawl-search,而不是直接抓某個 URL?
當需求的第一步是「先找來源」時,就該用 firecrawl-search skill。如果你已經知道精確頁面,直接抓取通常會是更乾淨俐落的做法。
firecrawl-search 能處理近期新聞研究嗎?
可以。技能明確展示了 --sources news 和 --tbs qdr:d 這種近期結果模式。只要你把時間範圍定義清楚,它就很適合用來做時效敏感的查核。
firecrawl-search 足以支撐完整的網頁研究流程嗎?
通常它是第一步,不是整條流程的全部。技能本身已經指向一種逐步升級的模式:search → scrape → map → crawl → interact。如果你的瓶頸是發現來源,適合先裝它;如果瓶頸在遍歷或互動,就要再加其他技能。
firecrawl-search 在什麼情況下不適合?
以下情況下它並不理想:
- 你需要網站自動化,
- 你需要登入後瀏覽,
- 你需要完整而徹底的網域爬取,
- 你已經有目標 URL。
如何改善 firecrawl-search 技能的使用效果
透過收斂查詢來改善 firecrawl-search 結果
影響最大的槓桿就是查詢的具體程度。如果第一輪結果很弱,不要只是把 --limit 調大。更好的做法是重寫查詢,加入:
- 明確主題,
- 來源角度,
- 日期訊號,
- 如果有需要,再加上地理或網域限制。
多數情況下,查詢改寫得更好,效果會比單純擴大結果集更明顯。
用兩段式研究,避免一次塞滿需求
常見失敗模式之一,就是要求 firecrawl-search 一次做太多事。比較好的模式是:
- pass 1:只搜尋,用來找出高價值 URL,
- pass 2:只對選中的結果做全文擷取。
這樣能減少無關頁面的抓取,也會讓後續摘要品質更穩定。
要求你真正需要的輸出形式
如果下一步是分析,就要明確要求結構化處理:
- 保存原始 JSON,
- 標出最值得看的結果,
- 只抓取最後入選的頁面,
- 等擷取完成後再做摘要。
這會比要求 agent 一口氣「把所有東西都研究完」來得可靠。
用來源與時間限制降低雜訊
如果結果看起來很亂,先加限制,不要先加量:
- 研究時事就改用
--sources news, - 用
--tbs控制時間新近性, - 降低或封頂
--limit, - 收窄主題描述。
這通常是改善 firecrawl-search for Web Research 最快的方法。
留意常見失敗模式
firecrawl-search 常見的問題包括:
- 查詢過度寬泛,
- 太早開始抓取,
- 把常青主題與時效性主題混在一起,
- 沒讀擷取頁面就把搜尋結果直接當成最終證據。
如果品質下降,先檢查這些假設是否出了問題。
給 agent 更強的操作指令
更好的呼叫提示,通常會包含:
- 研究問題本身,
- 什麼才算是好來源,
- 想要的來源類型,
- 對時效性的需求,
- 要收集多少結果,
- 是否要抓取結果頁面。
範例:
Use firecrawl-search to find 8 recent news and web sources on open-source AI model security benchmarks from the past 14 days. Save JSON results, then scrape the top 4 substantive sources for detailed comparison.
這樣的指令能提高結果品質,因為它把原本需要猜的部分都明確化了。
看完第一輪輸出後再迭代
不要只跑一次寬泛查詢,就對 firecrawl-search skill 下結論。請先檢查第一批結果,再做調整:
- 補上缺少的實體名稱,
- 移除容易混淆的詞,
- 把一個查詢拆成兩個更窄的搜尋,
- 只對明確相關的頁面重新執行抓取。
把這個技能當成可迭代的研究工具,而不是單次出答案的生成器,通常才會發揮它最好的效果。
