Herramientas SEO
robots.txt & sitemap.xml
Genera un robots.txt y sitemap.xml optimizados para SEO en pocos clics. Configura, previsualiza y descarga.
robots.txt
sitemap.xml
Descarga directa
Configuración
Selecciona varios para reglas por bot
Una ruta por línea
robots.txt
Haz clic en « Generar » para ver el resultado…
Buenas prácticas
- ✓Coloca robots.txt en la raíz:
example.com/robots.txt - ✓Incluye la URL absoluta de tu sitemap
- ⚠robots.txt no es un mecanismo de seguridad — los bots maliciosos lo ignoran
- ⚠Bloquear GPTBot y CCBot impide la indexación por IA
Configuración
Ruta
Freq.
Prioridad
Deja vacío para la fecha de hoy
sitemap.xml
Haz clic en « Generar » para ver el resultado…
Buenas prácticas
- ✓Envía tu sitemap en Google Search Console
- ✓Referencíalo en robots.txt via
Sitemap: - ✓Máximo 50 000 URLs o 50 MB por archivo sitemap
- ⚠Solo incluye páginas canónicas — sin duplicados
robots.txt vs sitemap.xml
robots.txt
Indica a los robots qué páginas rastrear o ignorar. Útil para bloquear zonas de administración, páginas duplicadas o recursos innecesarios.
sitemap.xml
Lista todas las páginas importantes de tu sitio para ayudar a los motores a descubrirlas. Incluye URL, fecha de modificación y prioridad.
Impacto SEO
Un sitemap bien estructurado acelera la indexación de nuevas páginas. robots.txt evita desperdiciar el presupuesto de rastreo en páginas sin valor SEO.
Bloquear las IA
Bloquea GPTBot (OpenAI), CCBot (Common Crawl), anthropic-ai y Google-Extended para evitar el uso de tu contenido en entrenamiento de IA.
FAQ
Sí, si accidentalmente bloqueas páginas importantes. Una directiva Disallow:/ bloquea todo tu sitio. Verifica siempre con Google Search Console tras modificarlo.
priority (0.0 a 1.0) indica la importancia relativa de una página en tu sitio. changefreq es la frecuencia estimada de cambio. Google usa estos valores como indicaciones, no como obligaciones.
No. Solo incluye páginas canónicas con contenido valioso. Excluye páginas de paginación, páginas de etiquetas, duplicados y páginas bloqueadas por robots.txt.