El SEO técnico ayudará a que Google pueda comprender bien el contenido de tu web y mejore su posicionamiento.
En este artículo, podrás entender qué es el SEO técnico, cual es su importancia en el posicionamiento y cómo mejorar los aspectos técnicos más importantes.
¿Qué es el SEO técnico?
El SEO técnico es la parte del posicionamiento web que se centra en corregir errores y optimizar la parte más técnica de un sitio web con el objetivo de mejorar el posicionamiento en buscadores.
Las acciones que engloban al SEO técnico son las que más relación tienen con la programación web y qué persiguen como principal objetivo mejorar la rastreabilidad e indexabilidad del sitio.
¿Por qué es importante el SEO técnico?
El proceso de posicionamiento de una web comienza con el rastreo, continúa con la indexación y finaliza con la clasificación en los buscadores.
Como ves, el SEO técnico es fundamental para evitar que existan errores en el rastreo o indexación de la página.
Ya que, no importa que tan bueno sea el contenido de la página, un error técnico grave que impide que Google lo interprete adecuadamente hará que nunca tenga posibilidad de posicionarse.
Además, otros aspectos técnicos también serán importantes, tanto para SEO, como para la experiencia de usuario.
Algún ejemplo puede ser aplicar mejoras de velocidad o eliminar enlaces rotos.
Por lo tanto, existen algunos aspectos de SEO técnico que tiene mucha importancia no pasar por alto para que tenga éxito el resto de acciones de marketing digital que apliques.
¿Cuáles son los principales aspectos del SEO técnico?
Aunque, dentro de la parte técnica de SEO se pueden aplicar muchas acciones para mejorar el posicionamiento, hay algunos aspectos técnicos que son más importantes para asegurar un buen posicionamiento:
Rastreo e Indexabilidad
Asegurarse de que Google y otros crawlers pueden rastrear e indexar el contenido del sitio es fundamental para posicionar cualquier contenido.
Eliminar cualquier problema que perjudique el rastreo, hará que cada página nueva o actualizada en tu web sea descubierta por Google lo antes posible y tome en cuenta ese contenido para mostrarlo en su buscador.
Una vez accedan los bots, es importante asegurarse de que no exista ninguna indicativa que impida la indexación del contenido.
Algunos de los errores más comunes que perjudican el rastreo e indexación de un sitio web, son:
- Bloqueos por Robots. Es decir, existe alguna directiva que impide a los bots acceder al contenido y este no se puede rastrear.
- Problemas de usabilidad móvil. La web no está bien adaptada a una vista mobile y no se puede rastrear bien su contenido cuando accede el rastreador de Google para móviles.
- Falta de presupuesto de rastreo. Cuándo existen problemas durante el rastreo, como que se sobrecarga el servidor o la web es excesivamente lenta y no se puede rastrear bien el contenido.
- Mal enlazada interno. Existen pocos enlaces hacia la página, por lo que a Google le puede costar mucho descubrirla.
- Existe una etiqueta “no-index”que prohíbe la indexación del contenido.
Para controlar el rastreo e indexación de una web, puedes revisar periódicamente el informe de rastreo y de páginas en la herramienta Google Search Console.
El informe de rastreo te mostrará las estadísticas de rastreo que se han recopilado cuando las arañas de Google han accedido al sitio.
Los puedes ver desde: Ajustes > Estadísticas de rastreo
Por otra parte, el informe de indexación de páginas, te agrupará los problemas por los que una página no se ha indexado.
Contenido duplicado
El contenido duplicado existe cuando hay más de una versión para una misma URL, lo que perjudica el posicionamiento de la URL importante.
Para comprobar que no existe ningún error técnico que crea contenido duplicado en tus URLs.
Comprueba escribir la dirección de tus páginas en diferentes formas:
- https://tudominio.com/→ sin www.
- https://www.tudominio.com/→ con www.
- http://tudominio.com/→ con http.
- https://tudominio.com→ sin barra final.
- https://tudominio.com/→ con barra final.
Una vez comprobado, debería existir una sola versión de tus páginas, y el resto deberían redireccionar a la versión única.
Por ejemplo, al escribir en esta web la dirección sin www, redirige a la versión con www.
Protocolo HTTPS
En el caso de http, es importante que la versión adecuada sea la versión https.
Un aspecto fundamental para mostrar que la página es segura es el uso del protocolo seguro https.
Por lo que, asegúrate de que tu web cuenta con la versión segura.
Si no es el caso, esto será una prioridad a resolver.
Si tu web está construida con Wordpress, el plugin “Really Simple SSL” es una solución rápida y sencilla.
Sitemap.xml
El archivo sitemap.xml es un archivo tipo índice que muestra una lista de las URLs indexables de tu sitio a los crawlers.
El mapa del sitio sirve para mejorar el proceso de rastreo e indexación, ayudando a los bots a entender qué páginas deben rastrear y en qué prioridad deberían hacerlo.
Este archivo lo encontrarás en la mayoría de casos siguiendo la ruta “dominio.com/sitemap.xml” o “dominio.com/index_sitemap.xml”.
Si aún no tienes el archivo creado, para webs construidas con Wordpress, será una función que podrás habilitar al usar cualquier complemento SEO como Rankmath, Yoast o All in One SEO.
O simplemente crear un archivo sitemap.xml y subirlo a la ruta de la página principal del dominio.
Es importante que una vez creado, se envíe a Google a través de:
Google Search Console > Sitemaps > Añadir sitemap
Y comprobar que se muestra correcto.
- Robots.txt
El archivo Robots.txt es un archivo que tiene la función de indicar a los rastreadores a que partes de una página web no deben acceder.
Esto es importante para evitar que Google y otros bots accedan a ciertas direcciones, como puede ser el panel de administrador de tu sitio, donde no existe ningún contenido de valor que vaya a ser posicionado.
Ejemplo de como se ve el archivo robots de Amazon:
El archivo Robots lo encontrarás habitualmente en la dirección “dominio.com/robots.txt» y al igual que el sitemap, la mayoría de complementos SEO de Wordpress te permitirán crear el archivo.
Otra forma es crear un archivo Robots.txt y subirlo a la ruta de la página principal del dominio.
Una vez creado, recomiendo revisar periódicamente los bloqueos a través de Google Search Console.
En el informe de páginas encontrarás las URLs que Google no accedió a causa del Robots.
Asegúrate de que no se muestre ninguna URL que no deba estar bloqueada.
WPO
El WPO o la velocidad de carga es uno de los aspectos de SEO técnico que conviene mejorar para evitar problemas de rastreo, mejorar la puntuación en las Core Web Vital y mejorar la experiencia de usuario.
Puedes evaluar la velocidad de alguna de tus páginas con PageSpeed Insight.
Si tu web tiene una puntuación baja, te recomiendo empezar por comprender cuales son las métricas que Google evalúa en cuanto a la experiencia de usuario y como mejorarlas en este artículo sobre las Core Web Vitals.
Arquitectura web y enlazado interno
La arquitectura de un sitio web y estrategia de enlazado interno tendrán un efecto en el posicionamiento de las páginas del sitio, además de en la interacción de los usuarios.
Algunos aspectos que tienen que ver con la estructuración de un sitio web, como la profundidad de rastreo, influyen en el posicionamiento.
La profundidad de rastreo, hace referencia a cuantos clics de distancia se encuentra una URL de la página principal, cuanto más lejos esté, menos relevancia interpreta Google que tiene esa URL.
El número de enlaces internos que apuntan a una URL también es una forma de aportar relevancia a esa página.
Si cuentas con la herramienta Screaming Frog.
Puedes rastrear tu página, acceder a la pestaña de “enlaces”.
Y prestar atención a la columna “Nivel de profundidad” y “Enlaces internos”.
Para una estructura y enlazado correcto, las páginas más importantes deben estar a menor profundidad que el resto.
Y el número de enlaces internos también debe ser “alto” en aquellas páginas importantes.
Aunque esto puede depender de más cosas, lo importante es que cualquier página importante no tenga muy pocos enlaces (por ejemplo, que una URL importante solo reciba 1 o 2 enlaces internos).
Controlar errores 301 y 404
Y, otra parte importante del enlazado interno, será vigilar la existencia de enlaces internos con un código de respuesta 301 o 404.
Los enlaces 301, serán enlaces internos que no se dirigen directamente a la URL de destino final, sino que existe una o más redirecciones de por medio.
Por ejemplo: existe un enlace interno que al acceder a /link-building/ redirige a /posicionamiento-seo/.
Desde Screaming, podrás encontrar las redirecciones 301 en:
Códigos de respuesta > Interna > Redirección interna:
Los enlaces 404 son enlaces internos que ya no existen.
Es decir, un enlace interno que cuando Google o un usuario accede llega a la página de error 404.
Situándote en Screaming, desde el mismo apartado que se encuentran los enlaces 301, encontrarás una pestaña donde te muestra los enlaces 404.
En caso de que existan en tu web, accede a este panel y podrás ver la información de donde se encuentran estos enlaces rotos.
Resumen
En definitiva, el SEO técnico es fundamental para posicionar una página web y evitar errores graves que afecten negativamente a otras estrategias SEO o de marketing digital.
Teniendo en cuenta los aspectos técnicos mencionados en este artículo, tendrás solucionada la parte técnica que más puede influir en el posicionamiento de tu web.
Jamil Mansilla. Especialista en SEO y Marketing Digital. Apasionado del aprendizaje continuo y de la difusión de mi conocimiento con artículos en blogs especializados en marketing digital.
Imagen; ilustracion-concepto-seo > de gstudioimagen > Freepik > freepik.es