firecrawl-download
por firecrawlfirecrawl-download te ayuda a descargar un sitio o una sección de documentación en archivos locales organizados dentro de `.firecrawl/`. Combina mapeo del sitio y scraping, admite markdown, enlaces y capturas de pantalla, y resulta útil para copias offline de documentación, captura masiva de páginas y flujos prácticos de Web Scraping.
Esta skill obtiene 73/100, lo que significa que puede incluirse para usuarios del directorio: el disparador de uso es claro y el flujo de trabajo es real, pero adoptarla todavía exige cierta interpretación porque el repositorio solo ofrece un único `SKILL.md` con pocos detalles operativos más allá de ejemplos de comandos.
- Alta capacidad de activación: la descripción menciona intenciones de uso concretas como "download the site", "offline copy" y "download all the docs".
- Valor real para agentes: combina mapeo del sitio y scraping en un solo comando y documenta opciones útiles como formatos, capturas de pantalla, include-paths y límites.
- Ejemplos bastante accionables: el `SKILL.md` incluye comandos de inicio rápido y además indica explícitamente el uso de `-y` para omitir solicitudes de confirmación.
- La profundidad operativa es limitada: no hay archivos de soporte, referencias, instrucciones de instalación ni reglas de decisión para gestionar fallos, límites de escala o la administración de la salida.
- La skill está marcada explícitamente como experimental, lo que añade cierto riesgo de confianza y estabilidad para flujos de agentes de estilo productivo.
Visión general de la skill firecrawl-download
Qué hace firecrawl-download
La skill firecrawl-download sirve para una tarea muy concreta: descargar un sitio web o una sección de documentación en archivos locales organizados. Combina el descubrimiento del sitio con el scraping de páginas y luego guarda cada página dentro de .firecrawl/ como markdown, capturas de pantalla o varios formatos de salida por página.
Resulta especialmente útil si quieres una copia offline de documentación, un corpus local para investigación o una forma repetible de guardar muchas páginas para analizarlas después. Frente a un prompt genérico de scraping, firecrawl-download ofrece un camino más claro para capturar un sitio completo, sin obligarte a diseñar desde cero el flujo de rastreo.
Quién debería usar esta skill firecrawl-download
Los perfiles para los que mejor encaja son:
- desarrolladores que quieren guardar documentación en local
- investigadores que recopilan contenido de sitios para revisarlo
- equipos que necesitan un archivo ligero de contenidos
- agentes que requieren un flujo práctico de “descarga este sitio” con menos margen de improvisación
Si tu objetivo real es “guardar este sitio como archivos locales utilizables”, esta skill encaja mejor que un prompt amplio de web scraping.
Qué suele importar antes de instalarla
La mayoría de decisiones de instalación de firecrawl-download se reducen a cuatro preguntas:
- ¿Puede manejar un sitio completo o una sección de docs, y no solo una página?
- ¿Guarda la salida en una estructura local realmente utilizable?
- ¿Permite filtrar el alcance para no descargar páginas equivocadas?
- ¿Admite varios tipos de salida, como markdown y capturas?
Según el código y la definición de la skill, la respuesta es sí en los cuatro casos. La principal salvedad es que está marcada como experimental, así que conviene tratarla como un flujo de conveniencia y no como un sistema de archivado especialmente robusto.
Diferenciador clave para flujos de Web Scraping
Lo que diferencia a firecrawl-download for Web Scraping no es solo la potencia de scraping en bruto. La clave es que el comando agrupa:
- mapeo del sitio primero
- scraping después
- salida en archivos por página
- directorios locales anidados
- reutilización de opciones de scrape durante la descarga
Eso hace que merezca más la pena instalarla para casos de uso de “descargar docs” que un simple comando de scrape que solo devuelve el contenido de una página.
Cómo usar la skill firecrawl-download
Contexto de instalación de firecrawl-download
La evidencia del repositorio indica que esta skill vive en firecrawl/cli, dentro de skills/firecrawl-download. Una vía práctica de instalación es:
npx skills add https://github.com/firecrawl/cli --skill firecrawl-download
Después de añadirla, revisa:
skills/firecrawl-download/SKILL.md
Esta skill tiene pocos archivos de soporte, así que SKILL.md es la fuente principal de referencia.
Lee primero este archivo
Empieza por:
skills/firecrawl-download/SKILL.md
Ese archivo deja claro enseguida el alcance real: firecrawl download es un comando experimental de conveniencia que combina map y scrape, guarda resultados dentro de .firecrawl/ y admite opciones de scrape durante la descarga.
Uso básico de firecrawl-download
La forma más rápida de usar la firecrawl-download skill es apuntarla a la raíz de documentación o contenido:
firecrawl download https://docs.example.com
Para ejecuciones desatendidas, la skill recomienda explícitamente:
firecrawl download https://docs.example.com -y
Usa -y siempre que quieras omitir confirmaciones en flujos con agentes o scripts.
Qué entradas necesita la skill para funcionar bien
Un prompt impreciso como “descarga este sitio” suele quedarse corto. Es mejor indicar:
- la URL raíz
- los límites de la sección que realmente quieres
- el número máximo de páginas
- los formatos de salida necesarios
- si las capturas importan
- qué excluir
Una petición más sólida sería:
“Use firecrawl-download to save https://docs.example.com locally as markdown with screenshots, include only /guides and /api, limit to 50 pages, and skip translated pages.”
Con eso la skill tiene suficiente contexto para mapear el alcance correcto antes de hacer scraping.
Comandos que más importan en la práctica
El código fuente muestra algunos patrones especialmente útiles:
# With screenshots
firecrawl download https://docs.example.com --screenshot --limit 20 -y
# Multiple formats per page
firecrawl download https://docs.example.com --format markdown,links --screenshot --limit 20 -y
# Filter by section
firecrawl download https://docs.example.com --include-paths "/features,/sdks"
Estos ejemplos importan porque reflejan bloqueos reales al adoptar la skill: demasiado contenido, secciones equivocadas o una salida con poca fidelidad.
Qué se escribe en local
La skill guarda la salida en directorios anidados dentro de .firecrawl/. Cuando pides varios formatos, cada página puede generar archivos separados como:
index.mdlinks.txtscreenshot.png
Esa organización local de archivos es una de las razones principales para preferir firecrawl-download install frente a un prompt puntual de scraping.
Cómo convertir un objetivo impreciso en un prompt útil
Si tu primera idea es:
- “descarga este sitio de documentación”
reescríbela como:
- URL objetivo
- filtros de sección deseados
- formatos de archivo
- capturas sí/no
- límite de páginas
- exclusiones
Ejemplo de prompt para un agente:
“Use the firecrawl-download skill to download https://docs.example.com for offline use. Save as markdown plus screenshots, include only /getting-started,/api, cap at 30 pages, and use -y so the run is non-interactive.”
Esto funciona mejor porque elimina ambigüedades sobre el alcance y la salida.
Flujo recomendado para obtener resultados fiables
Un flujo práctico de la firecrawl-download guide es:
- Empieza con la sección de documentación más pequeña que siga siendo útil.
- Añade
--include-pathsantes de aumentar el número de páginas. - Haz la primera pasada con
--limit. - Revisa la estructura de salida en
.firecrawl/. - Añade
--screenshoto varios formatos solo si realmente los necesitas. - Amplía el rastreo cuando la primera muestra ya se vea correcta.
Así evitas el fallo más habitual: descargar demasiado, demasiado pronto.
Cuándo usar firecrawl-download en lugar de un scrape normal
Usa firecrawl-download usage cuando necesites:
- muchas páginas, no una sola
- archivos locales, no solo texto devuelto
- una copia offline navegable
- una instantánea rápida de documentación para revisión o referencia
Usa un scrape normal cuando solo necesites una página o una lógica de extracción muy personalizada. El valor de firecrawl-download está en la rapidez del flujo para guardar contenido a escala de sitio.
Restricciones y tradeoffs que conviene conocer pronto
Las limitaciones prácticas más importantes según la skill son:
- está marcada como experimental
- está optimizada como comando de conveniencia
- la calidad de salida sigue dependiendo de la estructura del sitio objetivo y de tus filtros de alcance
- las ejecuciones amplias y sin límites pueden generar ruido o exceso de contenido
En otras palabras, la skill encaja muy bien para descargas controladas de documentación, pero no garantiza un archivado perfecto ni completo.
Preguntas frecuentes sobre la skill firecrawl-download
¿Es firecrawl-download buena para principiantes?
Sí, sobre todo si tu tarea es simplemente “guardar documentación en local”. Los ejemplos de comandos son directos y el asistente interactivo ayuda. Aun así, los principiantes deberían empezar con un --limit pequeño y --include-paths acotados para evitar descargas demasiado grandes.
¿Cuál es la diferencia real frente a un prompt genérico de scraping con IA?
Un prompt genérico puede describir la tarea, pero firecrawl-download ya incorpora el patrón útil: mapear el sitio, hacer scraping de cada página y guardar archivos en directorios. Eso reduce la fricción de configuración y hace que el flujo sea más repetible.
¿firecrawl-download es solo para sitios de documentación?
No, aunque la documentación es donde mejor encaja. Funciona mejor en sitios cuya estructura de páginas y rutas es razonablemente predecible. Los sitios muy dinámicos o mal acotados pueden requerir más filtrado o incluso otro enfoque.
¿Puede firecrawl-download guardar algo más que markdown?
Sí. La definición de la skill muestra explícitamente varios formatos por página y capturas opcionales. Esto es importante si necesitas tanto texto legible como evidencia visual de apoyo.
¿Cuándo no debería usar firecrawl-download?
Evita firecrawl-download si solo necesitas:
- una página
- un esquema de extracción personalizado
- postprocesado profundo durante el scraping
- un pipeline de archivado totalmente robusto con garantías más estrictas
En esos casos, puede encajar mejor un comando de scrape más específico o un flujo más personalizado.
Cómo mejorar la skill firecrawl-download
Dale primero un alcance más preciso a firecrawl-download
La forma más sencilla de mejorar los resultados de firecrawl-download es reducir la ambigüedad. Usa:
--include-paths--limit- una URL raíz de documentación clara
Una ejecución acotada a 20 páginas suele ser más útil que una descarga descontrolada de todo el sitio.
Elige las salidas según el trabajo real que viene después
No pidas todos los formatos por defecto. Elige los que encajen con el siguiente paso:
markdownpara lectura, búsqueda e ingesta por LLMlinkscuando la estructura importa--screenshotcuando importan el diseño o la evidencia visual de la interfaz
Así mantienes las ejecuciones más ligeras y la salida más fácil de revisar.
Haz una ejecución de muestra antes de la descarga completa
Un patrón de iteración sólido es:
firecrawl download https://docs.example.com --include-paths "/api" --limit 10 -y
Revisa los archivos guardados y luego amplía a más secciones o a límites más altos. Así detectas pronto decisiones de alcance equivocadas.
Fallos habituales y cómo evitarlos
Los problemas típicos son:
- descargar secciones equivocadas
- recopilar demasiadas páginas
- olvidar
-yen ejecuciones automatizadas - pedir salidas que en realidad no necesitas
La solución es simple: especifica el alcance, limita la primera ejecución y elige las salidas de forma intencional.
Mejora la calidad de los prompts en usos con agentes
Si un agente va a llamar a la skill, pídele:
- URL exacta de inicio
- propósito deseado de la salida local
- secciones que incluir
- secciones que evitar
- formatos de salida
- límite de tamaño de la ejecución
Buen prompt:
“Use firecrawl-download to create an offline markdown copy of https://docs.example.com, only for /guides and /reference, with screenshots for each page, limited to 40 pages, and save non-interactively.”
Eso produce una ejecución mejor que “descarga la documentación”.
Cómo iterar después de la primera salida
Después de la primera pasada, evalúa:
- ¿
.firecrawl/contenía las páginas que esperabas? - ¿Había demasiadas páginas irrelevantes?
- ¿Necesitabas capturas o solo texto?
- ¿La siguiente ejecución debería ampliar o reducir las rutas incluidas?
La mejor forma de mejorar la firecrawl-download skill no es volver a ejecutarla a ciegas, sino ajustar el alcance y las opciones de salida según lo que haya producido realmente el primer lote.
