Qué se trata en este blog
Robots.txt, sitemaps XML, presupuesto de crawl y cómo Googlebot recorre un sitio en la práctica. Sin suposiciones.
Canonicalización, gestión de parámetros, redirecciones 301 y cómo la estructura de un sitio afecta lo que Google entiende de él.
Core Web Vitals, tiempos de respuesta del servidor, carga diferida y todo lo que va entre una petición HTTP y una página visible.
Schema.org, JSON-LD y cómo marcar contenido para que los motores de búsqueda extraigan información con precisión.
Leer archivos de log de servidor para entender el comportamiento real del crawler, no el supuesto.
Cambios de dominio, restructuraciones, páginas huérfanas y cómo no perder visibilidad durante procesos de cambio.
Cómo empezó todo esto
En 2018, trabajando en el equipo técnico de un portal de noticias con más de 400.000 URLs, quedó claro que la mayoría de los problemas de visibilidad no tenían que ver con el contenido. Eran problemas de infraestructura que nadie había nombrado correctamente.
Desde entonces, el trabajo ha girado en torno a auditorías técnicas, implementación de mejoras medibles y documentar lo aprendido en el proceso. Este blog es ese archivo.
Cómo se abordan los temas técnicos aquí
No hay recetas universales. Cada artículo parte de un problema real, con capturas, código o datos de ejemplo. Se explica el contexto antes de proponer soluciones.
Cada afirmación sobre el comportamiento de los motores de búsqueda se contrasta con datos: experimentos propios, documentación oficial o estudios publicados con metodología clara.
Los fragmentos de código, configuraciones de servidor o scripts de análisis que aparecen en los artículos son funcionales. No hay pseudocódigo ni ejemplos abstractos.
Aplicar una corrección sin entender por qué falló algo no sirve de mucho. Cada artículo explica la causa antes de hablar de la solución, para que la lógica sea transferible a otros casos.
El SEO técnico cambia. Los artículos que quedan desactualizados se revisan con nota de edición visible, indicando qué cambió y por qué.
Artículos recientes
Una selección de lo publicado en el blog
Cómo afecta el presupuesto de crawl a sitios con miles de URLs
Cuando Googlebot no rastrea todas las páginas de un sitio, el problema casi siempre está en la arquitectura, no en el contenido. Aquí se analiza cómo leerlo en los logs.
Leer artículo
Cuándo la etiqueta canonical no resuelve el problema de duplicados