Si algo me ha quedado claro estudiando marketing digital es que tener una web bonita no sirve de mucho si nadie la encuentra. Puedes tener el mejor contenido del mundo, pero si Google no entiende bien tu sitio, simplemente no lo va a mostrar. Con esa idea en la cabeza, decidí hacer algo que siempre había dejado para "mañana": sentarme a revisar el SEO de mi propia web.
Lo que encontré fue un poco vergonzoso, la verdad. Errores básicos que yo mismo explico en mis artículos sobre SEO y que, paradójicamente, no estaba aplicando en mi propio sitio. Así que este post es una especie de confesión y, a la vez, una guía práctica de lo que hice para corregirlo.
El punto de partida: ¿Qué fallaba?
Analicé las ocho páginas de mi web (la home, sobre mí, blog, contacto y los cuatro artículos) buscando los elementos básicos que cualquier sitio necesita para ser rastreable e indexable por los motores de búsqueda. El resultado fue más o menos este: de los diez puntos clave que revisé, solo dos o tres estaban bien. El resto, o no existían o estaban a medias.
Los principales problemas eran de los que no se ven a simple vista. La web funcionaba perfectamente para un visitante humano, pero para los bots de Google le faltaba mucha información para entender qué era cada página, cómo se relacionaban entre sí y cuáles debía priorizar.
Meta descriptions: lo primero que ve el usuario en Google
Ninguna de mis ocho páginas tenía una meta description. Ninguna. Esto significa que cuando alguien busca en Google y mi web aparece (si aparece), el snippet que se muestra debajo del título es un fragmento aleatorio que Google elige por su cuenta. A veces es un texto coherente, pero muchas veces no tiene sentido y el usuario simplemente pasa de largo.
La solución fue sencilla: escribir una descripción personalizada para cada página. Algo que resuma bien el contenido y que invite a hacer clic. Por ejemplo, para la página de "Sobre mí" añadí esto:
Una línea de código por página. Cinco minutos de trabajo que pueden marcar la diferencia en el CTR (porcentaje de clics) de cada resultado.
Sitemap y robots.txt: los archivos que le hablan a Google
Otro error de los gordos. Mi web no tenía ni sitemap.xml ni robots.txt. Para quien no los conozca: el sitemap es básicamente una lista de todas las páginas de tu sitio para que Google las encuentre rápido, y el robots.txt es un archivo que le dice a los bots qué pueden rastrear y dónde está el sitemap.
En una web pequeña como la mía, Google probablemente acabe encontrando todas las páginas de todos modos, pero tener estos archivos es una buena práctica. Es como dejarle un mapa al cartero en vez de esperar a que encuentre tu buzón por su cuenta.
Creé el sitemap.xml incluyendo todas las URLs del sitio con sus fechas de última modificación, y el robots.txt con la configuración más básica: permitir el acceso a todo y apuntar al sitemap.
User-agent: *
Allow: /
Sitemap: https://zisquito.github.io/sitemap.xml
URLs canónicas: evitar que Google se líe
Este es un problema más sutil. En mi web, cada página se puede acceder con extensión (.html) y sin ella. Por ejemplo, zisquito.github.io/blog y zisquito.github.io/blog.html llevan al mismo sitio. Para un humano es lo mismo, pero Google las puede interpretar como dos páginas distintas con el mismo contenido. Eso es lo que se llama contenido duplicado y puede perjudicar el posicionamiento.
La solución es añadir una etiqueta canonical en cada página que le diga a Google: "Oye, la URL oficial de esta página es esta, ignora las demás".
Open Graph: cómo se ve tu web cuando la compartes
¿Alguna vez has pegado un enlace en WhatsApp o LinkedIn y ha aparecido una previsualización con imagen, título y descripción? Eso lo controlan las etiquetas Open Graph (y las equivalentes de Twitter Cards). Solo tres de mis ocho páginas las tenían, y encima ninguna incluía la descripción.
Completé las etiquetas OG en todas las páginas. Es un detalle que no afecta directamente al posicionamiento en Google, pero sí al tráfico que recibes cuando alguien comparte tu web. Un enlace con previsualización atractiva genera muchos más clics que uno que se ve como un texto plano.
Otros ajustes más pequeños
Además de los cambios principales, aproveché para corregir varias cosas menores que había ido dejando pasar:
- Texto alternativo de las imágenes: los atributos alt existían pero eran demasiado genéricos. Los reescribí para que fueran más descriptivos y relevantes para SEO.
- Meta de autor: añadí la etiqueta <meta name="author"> en todas las páginas. Es un detalle pequeño pero ayuda a que Google asocie el contenido con una persona concreta.
- Rutas del CV inconsistentes: algunas páginas enlazaban al CV con rutas relativas (CV_FranciscoRobles.pdf) y otras con absolutas (/CV_FranciscoRobles.pdf). Las unifiqué todas a la ruta absoluta desde la raíz.
Lo que ya estaba bien
No todo fueron errores. La auditoría también confirmó que algunos fundamentos estaban bien hechos: el idioma declarado correctamente con el lang="es", un solo <h1> por página, uso de HTML semántico con etiquetas como <article> y <main>, títulos descriptivos y únicos, diseño responsive, favicon, Google Analytics implementado y peso de imágenes razonable.
Eso demuestra que no es que no supiera lo que hacía. Simplemente, cuando montas una web tiendes a centrarte en lo visual y en el contenido, y los detalles técnicos se quedan en un "ya lo haré" permanente.
La lección
Si hay algo que me llevo de este ejercicio es que el SEO técnico básico no es difícil, pero sí fácil de olvidar. Son cambios pequeños, casi todos de una o dos líneas de código, pero que acumulados pueden marcar una diferencia real en si Google muestra tu web o la ignora.
Mi recomendación para cualquiera que tenga una web propia: dedica una tarde a revisarla. No hace falta herramientas caras ni ser un experto. Con una checklist básica y ganas de mirar debajo del capó, probablemente encuentres cosas que mejorar. Yo lo hice con la mía y, aunque el resultado fue un poco bochornoso, al menos ahora sé que los cimientos están bien puestos.