Inicio
Herramientas SEO

robots.txt & sitemap.xml

Genera un robots.txt y sitemap.xml optimizados para SEO en pocos clics. Configura, previsualiza y descarga.

robots.txt sitemap.xml Descarga directa
Configuración
Selecciona varios para reglas por bot
Una ruta por línea
robots.txt
Haz clic en « Generar » para ver el resultado…
Buenas prácticas
  • Coloca robots.txt en la raíz: example.com/robots.txt
  • Incluye la URL absoluta de tu sitemap
  • robots.txt no es un mecanismo de seguridad — los bots maliciosos lo ignoran
  • Bloquear GPTBot y CCBot impide la indexación por IA
Configuración
Ruta Freq. Prioridad
Deja vacío para la fecha de hoy
sitemap.xml
Haz clic en « Generar » para ver el resultado…
Buenas prácticas
  • Envía tu sitemap en Google Search Console
  • Referencíalo en robots.txt via Sitemap:
  • Máximo 50 000 URLs o 50 MB por archivo sitemap
  • Solo incluye páginas canónicas — sin duplicados

robots.txt vs sitemap.xml

robots.txt

Indica a los robots qué páginas rastrear o ignorar. Útil para bloquear zonas de administración, páginas duplicadas o recursos innecesarios.

sitemap.xml

Lista todas las páginas importantes de tu sitio para ayudar a los motores a descubrirlas. Incluye URL, fecha de modificación y prioridad.

Impacto SEO

Un sitemap bien estructurado acelera la indexación de nuevas páginas. robots.txt evita desperdiciar el presupuesto de rastreo en páginas sin valor SEO.

Bloquear las IA

Bloquea GPTBot (OpenAI), CCBot (Common Crawl), anthropic-ai y Google-Extended para evitar el uso de tu contenido en entrenamiento de IA.

FAQ

Sí, si accidentalmente bloqueas páginas importantes. Una directiva Disallow:/ bloquea todo tu sitio. Verifica siempre con Google Search Console tras modificarlo.
priority (0.0 a 1.0) indica la importancia relativa de una página en tu sitio. changefreq es la frecuencia estimada de cambio. Google usa estos valores como indicaciones, no como obligaciones.
No. Solo incluye páginas canónicas con contenido valioso. Excluye páginas de paginación, páginas de etiquetas, duplicados y páginas bloqueadas por robots.txt.