firecrawl-download
von firecrawlfirecrawl-download hilft dir dabei, eine Website oder einen Dokumentationsbereich als strukturierte lokale Dateien unter `.firecrawl/` zu speichern. Die Skill kombiniert Site-Mapping und Scraping, unterstützt Markdown, Links und Screenshots und eignet sich für Offline-Kopien von Doku, das Erfassen vieler Seiten auf einmal und praktische Web-Scraping-Workflows.
Diese Skill erreicht 73/100 und ist damit für Verzeichnisnutzer grundsätzlich geeignet: Der Auslöser ist klar und der Workflow ist real, aber für die tatsächliche Nutzung bleibt noch etwas Interpretationsspielraum, weil das Repository nur eine einzelne `SKILL.md` mit begrenzten operativen Details jenseits von Befehlsbeispielen bereitstellt.
- Hohe Auslösbarkeit: Die Beschreibung nennt konkrete Nutzungsabsichten wie „die Website herunterladen“, „Offline-Kopie“ und „die gesamte Doku herunterladen“.
- Echter Mehrwert für Agenten: Site-Mapping und Scraping werden in einem einzigen Befehl kombiniert, dazu sind hilfreiche Optionen wie Formate, Screenshots, Include-Pfade und Limits dokumentiert.
- Praxisnahe Beispiele: Die `SKILL.md` enthält Quickstart-Befehle und weist ausdrücklich darauf hin, dass sich mit `-y` Bestätigungsabfragen überspringen lassen.
- Die operative Tiefe ist begrenzt: Es gibt keine Zusatzdateien, Referenzen, Installationsanweisungen oder Entscheidungsregeln für Fehlerbehandlung, Skalierungsgrenzen oder das Management der Ausgaben.
- Die Skill ist ausdrücklich als experimentell gekennzeichnet, was das Vertrauens- und Stabilitätsrisiko für produktionsnahe Agenten-Workflows erhöht.
Überblick über die firecrawl-download Skill
Was firecrawl-download macht
Die firecrawl-download Skill ist für eine ganz bestimmte Aufgabe gedacht: eine Website oder einen Dokumentationsbereich als sauber organisierte lokale Dateien herunterzuladen. Sie kombiniert zuerst die Seitenerkennung mit dem anschließenden Scraping und speichert dann jede Seite unter .firecrawl/ als markdown, Screenshot oder in mehreren Ausgabeformaten pro Seite.
Besonders nützlich ist das, wenn du eine Offline-Kopie von Docs, ein lokales Recherche-Korpus oder einen wiederholbaren Weg brauchst, viele Seiten gesammelt für spätere Analysen zu sichern. Im Vergleich zu einem generischen Scraping-Prompt bietet firecrawl-download einen klareren Weg für die Erfassung ganzer Websites, statt dass du den Crawl-Workflow selbst von Grund auf entwerfen musst.
Für wen sich diese firecrawl-download Skill eignet
Am besten passt sie für:
- Entwickler, die Dokumentation lokal speichern möchten
- Forschende, die Website-Inhalte zur Auswertung sammeln
- Teams, die ein schlankes Content-Archiv aufbauen
- Agents, die einen praktikablen „download this site“-Workflow mit weniger Rätselraten brauchen
Wenn dein eigentliches Ziel lautet: „Diese Website als nutzbare lokale Dateien speichern“, ist diese Skill die bessere Wahl als ein allgemeiner Web-Scraping-Prompt.
Worauf Nutzer vor der Installation achten
Die meisten Installationsentscheidungen für firecrawl-download hängen an vier Fragen:
- Kann die Skill eine ganze Website oder einen Docs-Bereich verarbeiten und nicht nur eine einzelne Seite?
- Speichert sie die Ausgabe in einer lokal brauchbaren Struktur?
- Lässt sich der Scope filtern, damit nicht die falschen Seiten heruntergeladen werden?
- Unterstützt sie mehrere Ausgabetypen wie markdown und Screenshots?
Nach dem Skill-Quelltext ist die Antwort auf alle vier Fragen: ja. Der wichtigste Vorbehalt ist, dass sie als experimental gekennzeichnet ist. Du solltest sie daher eher als komfortablen Workflow verstehen als als besonders robustes Archivsystem.
Wichtigstes Unterscheidungsmerkmal für Web-Scraping-Workflows
Das Besondere an firecrawl-download for Web Scraping ist nicht nur reine Scraping-Leistung. Entscheidend ist, dass der Befehl Folgendes bündelt:
- zuerst Site-Mapping
- danach Scraping
- dateibasierte Ausgabe pro Seite
- verschachtelte lokale Verzeichnisse
- Wiederverwendung von Scrape-Optionen beim Download
Damit ist die Skill für „Docs herunterladen“-Anwendungsfälle installierenswerter als ein einfacher Scrape-Befehl, der nur Seiteninhalt zurückgibt.
So verwendest du die firecrawl-download Skill
Installationskontext für firecrawl-download
Die Repository-Hinweise zeigen, dass diese Skill in firecrawl/cli unter skills/firecrawl-download liegt. Ein praktikabler Installationsweg ist:
npx skills add https://github.com/firecrawl/cli --skill firecrawl-download
Nach dem Hinzufügen solltest du dir Folgendes ansehen:
skills/firecrawl-download/SKILL.md
Diese Skill hat nur minimale Zusatzdateien, daher ist SKILL.md die wichtigste Quelle.
Diese Datei zuerst lesen
Starte mit:
skills/firecrawl-download/SKILL.md
Diese Datei zeigt sehr schnell den tatsächlichen Umfang: firecrawl download ist ein experimenteller Komfortbefehl, der map und scrape kombiniert, Ergebnisse unter .firecrawl/ speichert und Scrape-Optionen auch während des Downloads unterstützt.
Grundlegende firecrawl-download Nutzung
Am schnellsten nutzt du die firecrawl-download skill, indem du sie auf einen Docs- oder Content-Root zeigst:
firecrawl download https://docs.example.com
Für unbeaufsichtigte Läufe empfiehlt die Skill ausdrücklich:
firecrawl download https://docs.example.com -y
Verwende -y immer dann, wenn du Bestätigungsabfragen in agentischen oder skriptgesteuerten Workflows überspringen willst.
Welche Eingaben die Skill für gute Ergebnisse braucht
Ein grober Prompt wie „download this site“ ist oft zu schwach. Bessere Eingaben enthalten:
- die Root-URL
- die Bereichsgrenzen, die du tatsächlich möchtest
- die maximale Seitenanzahl
- die benötigten Ausgabeformate
- ob Screenshots wichtig sind
- was ausgeschlossen werden soll
Eine stärkere Anweisung sieht zum Beispiel so aus:
„Use firecrawl-download to save https://docs.example.com locally as markdown with screenshots, include only /guides and /api, limit to 50 pages, and skip translated pages.”
Damit hat die Skill genug Informationen, um vor dem Scraping den richtigen Scope zu erfassen.
Welche Befehle in der Praxis am wichtigsten sind
Der Quelltext zeigt einige besonders wertvolle Muster:
# With screenshots
firecrawl download https://docs.example.com --screenshot --limit 20 -y
# Multiple formats per page
firecrawl download https://docs.example.com --format markdown,links --screenshot --limit 20 -y
# Filter by section
firecrawl download https://docs.example.com --include-paths "/features,/sdks"
Diese Beispiele sind wichtig, weil sie typische Hürden in der Praxis adressieren: zu viel Inhalt, die falschen Bereiche oder zu geringe Ausgabequalität.
Was lokal geschrieben wird
Die Skill speichert die Ausgabe in verschachtelten Verzeichnissen unter .firecrawl/. Wenn du mehrere Formate anforderst, kann jede Seite separate Dateien erzeugen, zum Beispiel:
index.mdlinks.txtscreenshot.png
Diese lokale Dateiorganisation ist einer der Hauptgründe, sich für firecrawl-download install statt für einen einmaligen Scrape-Prompt zu entscheiden.
Wie du aus einem groben Ziel einen brauchbaren Prompt machst
Wenn dein erster Gedanke ist:
- „download this docs site“
formuliere stattdessen konkret:
- Ziel-URL
- gewünschte Bereichsfilter
- Dateiformate
- Screenshot ja/nein
- Seitenlimit
- eventuelle Ausschlüsse
Beispiel-Prompt für einen Agent:
„Use the firecrawl-download skill to download https://docs.example.com for offline use. Save as markdown plus screenshots, include only /getting-started,/api, cap at 30 pages, and use -y so the run is non-interactive.”
Das funktioniert besser, weil Unklarheiten bei Scope und Ausgabe wegfallen.
Empfohlener Workflow für zuverlässige Ergebnisse mit firecrawl-download
Ein praktikabler firecrawl-download guide-Workflow ist:
- Beginne mit dem kleinsten sinnvollen Docs-Bereich.
- Nutze
--include-paths, bevor du die Seitenanzahl erhöhst. - Starte den ersten Durchlauf mit
--limit. - Prüfe die Ausgabestruktur unter
.firecrawl/. - Ergänze
--screenshotoder mehrere Formate nur dann, wenn du sie wirklich brauchst. - Erweitere den Crawl erst, wenn das erste Sample korrekt aussieht.
So vermeidest du den typischen Fehler, zu früh zu viel herunterzuladen.
Wann du firecrawl-download statt eines normalen Scrape-Befehls verwenden solltest
Nutze firecrawl-download usage, wenn du Folgendes brauchst:
- viele Seiten statt nur einer
- lokale Dateien statt nur zurückgegebenen Text
- eine offline durchsuchbare bzw. nutzbare Kopie
- einen schnellen Docs-Snapshot zur Prüfung oder Referenz
Nutze einen normalen Scrape-Befehl, wenn du nur eine Seite oder eine stark angepasste Extraktionslogik brauchst. Der Wert von firecrawl-download liegt in der Workflow-Geschwindigkeit beim Sichern von Inhalten im Website-Maßstab.
Wichtige Einschränkungen und Trade-offs früh verstehen
Die wichtigsten praktischen Einschränkungen laut Skill-Quelle sind:
- sie ist als experimentell markiert
- sie ist als Komfortbefehl optimiert
- die Ausgabequalität hängt weiterhin von der Struktur der Zielseite und deinen Scope-Filtern ab
- breite Läufe ohne Limits können unübersichtlich oder überzogen werden
Die Skill passt daher sehr gut für kontrollierte Docs-Downloads, garantiert aber keine perfekte archivische Vollständigkeit.
firecrawl-download Skill FAQ
Ist firecrawl-download gut für Einsteiger?
Ja, besonders wenn deine Aufgabe einfach „Docs lokal speichern“ ist. Die Befehlsbeispiele sind unkompliziert, und der interaktive Wizard hilft zusätzlich. Einsteiger sollten trotzdem mit einem kleinen --limit und eng gesetzten --include-paths beginnen, damit die Downloads nicht unnötig groß werden.
Was ist der echte Unterschied zu einem generischen AI-Scraping-Prompt?
Ein generischer Prompt kann die Aufgabe beschreiben, aber firecrawl-download bringt das nützliche Muster schon mit: Website mappen, jede Seite scrapen und die Dateien in Verzeichnissen speichern. Das reduziert Einrichtungsaufwand und macht den Workflow besser wiederholbar.
Ist firecrawl-download nur für Dokumentationsseiten gedacht?
Nein, aber Dokumentation ist der klarste Einsatzfall. Am besten funktioniert die Skill auf Websites, deren Seitenstruktur und Pfade einigermaßen vorhersehbar sind. Stark dynamische oder schlecht abgegrenzte Websites brauchen möglicherweise mehr Filterung oder einen anderen Ansatz.
Kann firecrawl-download mehr als nur markdown speichern?
Ja. Der Skill-Quelltext zeigt ausdrücklich mehrere Formate pro Seite sowie optionale Screenshots. Das ist wichtig, wenn du sowohl gut lesbaren Text als auch unterstützende visuelle Erfassung brauchst.
Wann sollte ich firecrawl-download nicht verwenden?
Verzichte auf firecrawl-download, wenn du nur Folgendes brauchst:
- eine einzelne Seite
- ein benutzerdefiniertes Extraktionsschema
- tiefgehende Nachbearbeitung schon während des Scrapings
- eine vollständig robuste Archiv-Pipeline mit strengeren Garantien
In diesen Fällen passt ein enger gefasster Scrape-Befehl oder ein stärker angepasster Workflow oft besser.
So verbesserst du die firecrawl-download Skill
Gib firecrawl-download zuerst einen engeren Scope
Der einfachste Weg, die Ergebnisse von firecrawl-download zu verbessern, ist weniger Mehrdeutigkeit. Nutze:
--include-paths--limit- eine klar definierte Docs-Root-URL
Ein begrenzter 20-Seiten-Lauf ist meist nützlicher als ein unkontrollierter Vollcrawl über die gesamte Website.
Wähle Ausgaben nach dem tatsächlichen Downstream-Zweck
Fordere nicht standardmäßig jedes Format an. Wähle Formate passend zum nächsten Schritt:
markdownfür Lesen, Suche und LLM-Ingestionlinks, wenn die Struktur wichtig ist--screenshot, wenn Layout oder UI-Belege relevant sind
So bleiben die Läufe leichter und die Ausgaben einfacher zu prüfen.
Nutze einen Probelauf vor dem vollständigen Download
Ein starkes Iterationsmuster ist:
firecrawl download https://docs.example.com --include-paths "/api" --limit 10 -y
Prüfe die gespeicherten Dateien und erweitere erst dann auf mehr Bereiche oder höhere Limits. So erkennst du schlechte Scope-Entscheidungen frühzeitig.
Typische Fehlerbilder und wie du sie vermeidest
Häufige Probleme sind:
- die falschen Bereiche werden heruntergeladen
- es werden zu viele Seiten gesammelt
-ywird in automatisierten Läufen vergessen- es werden Ausgaben angefordert, die du gar nicht brauchst
Die Lösung ist einfach: Scope klar angeben, den ersten Lauf begrenzen und Ausgaben bewusst auswählen.
Prompt-Qualität für agentische firecrawl-download Nutzung verbessern
Wenn ein Agent die Skill aufruft, frage nach:
- exakter Start-URL
- gewünschtem Zweck der lokalen Ausgabe
- einzuschließenden Bereichen
- zu vermeidenden Bereichen
- Ausgabeformaten
- Run-Größenlimit
Guter Prompt:
„Use firecrawl-download to create an offline markdown copy of https://docs.example.com, only for /guides and /reference, with screenshots for each page, limited to 40 pages, and save non-interactively.”
Das führt zu einer besseren Ausführung als „download the docs“.
Wie du nach der ersten Ausgabe sinnvoll iterierst
Bewerte nach dem ersten Durchlauf:
- Enthielt
.firecrawl/die Seiten, die du erwartet hast? - Waren zu viele irrelevante Seiten dabei?
- Brauchtest du Screenshots oder nur Text?
- Sollte der nächste Lauf die Include-Pfade erweitern oder enger fassen?
Der beste Weg, die firecrawl-download skill zu verbessern, ist nicht blind neu zu starten, sondern Scope und Ausgabeentscheidungen anhand der tatsächlich erzeugten ersten Ergebnisse anzupassen.
