Auditoría SEO

 

 

 

 

¿Qué es una Auditoría SEO?

 

Una Auditoría Seo son las acciones que se realizan para evaluar todos los factores que afectan en el Posicionamiento de un sitio web, también denominado Auditoría web.

 

Es un análisis en profundidad que determina que estrategias de posicionamiento son las más adecuadas para que nuestra página web se muestre en los buscadores y determina que aspectos afectan al posicionamiento en buscadores de una página web.

 

En este análisis se determinan que factores influyen de manera negativa en el posicionamiento e identificar los problemas que dificultan el posicionamiento y que factores lo hacen de manera positiva, para determinar cómo aparece nuestro resultado en la página principal de los resultados de búsqueda las SERPs.

 

Factores que influyen en la indexación y en definitiva en el tráfico web que recibe nuestro sitio web.

 

Una auditoría Seo profesional evalúa aspectos como  la estructura de la página web, los contenidos, metaetiquetas, metadatos y otros que se detallarán.

 

 

 

 

Cómo hacer una Auditoría Seo paso a paso

 

Esta auditoría Seo pretende exponer los aspectos principales a tener en cuenta para analizar un sitio web, sin profundizar en aspectos técnicos, para que cualquiera sin tener unos conocimientos de Seo avanzados pueda identificar donde pueden estar los problemas y como poder solucionarlos.

 

Vamos a ello.

 

 

 

Rastreo, Indexación

 

 

Crawlers – Rastreo

 

¿Qué es el crawl budget?

 

Crawler o araña, es un software que google emplea para rastrear y explorar todos los sitios web y las URLs de una forma automática.

 

Crawl budget se podría definir como «presupuesto de rastreo», hace referencia al tiempo, frecuencia y forma que dedica Google con sus bots o «crawlers» a rastrear las páginas web de un sitio, también llamado crawling, que es el proceso que emplea google para visitar, investigar y rastrear las páginas web en Internet, a través de sus enlaces o Url´s, para su posterior indexación y poder mostrarlos en los resultados de búsqueda del usuario.

 

«El Craxl Budget es el número de URLs que el Googlebot puede y quiere rastrear».

 

Para poder indexar y posicionar las páginas y sus contenidos de un sitio web de manera eficiente, los bots de google necesitaran más o menos tiempo en rastrearlos dependiendo de como estén estructurados, facilitando que aumente o disminuya la velocidad de indexación.

 

Según el presupuesto o tiempo de rastreo de los que los bots de google dispongan, determinarán la indexación de los contenidos y la frecuencia con la que rastreen el sitio web, si el presupuesto de rastreo es bajo, dificultará que pueda llegar a todos los contenidos del sitio web, impidiendo que los indexe, perjudicando al posicionamiento del sitio web.

 

Es importante facilitar el rastreo a los bots de google, para que el crawl budget aumente y encuentre los contenidos del sitio web, mediante:

  • arquitectura web bien estructurada, organizada, sintáxis de Url’s
  • contenidos actualizados, originales y de valor
  • autoridad de sitio web
  • fichero robots.txt, sitemap, mapa de contenidos

 

Es importante indicarle a los bots las partes que forman el sitio web que queremos que indexe y las que no a través del archivo robots.txt y las Meta robots o Meta etiquetas.

 

El archivo robots.txt bloquea el acceso a las páginas o partes del sitio web, los bots de los motores de búsqueda no rastrearán esas páginas y las meta etiquetas indican las partes que queremos que indexe o las que no.

 

  • archivo robots.txt > bloquea acceso a los bots

(Contenido duplicado, páginas concretas, archivos).

  • meta robots o meta etiquetas > indexación

(Política de Cookies, Aviso Legal, Política de Privacidad,  Áreas privadas para usuarios registrados, etc.)

 

En el archivo robots.txt se indica donde se encuentra el archivo XML Sitemap o mapa de sitio web donde se encuentran las principales Url’s del sitio web, ayudando y indicando a los bots las url’s que queremos indexar y posicionar, ayudando a los visitantes en la navegación y a los bots de los motores de búsqueda a identificar las páginas del sitio web y localizar el contenido.

 

Robots.txt

  • Robots.txt: midominio.com/robots.txt
  • Disallow: parámetros, ordenaciones, filtros
  • Sitemap; midominio.com/sitemap.xml

 

Meta robots o Meta etiquetas

  • Meta-robots: (etiquetas html)
  • NoIndex / Index
  • Nofollow / Follow (traspasar autoridad)

<meta name= «robots» content= «noindex, follow»>

 

Herramientas:

  • Screaming Frog
  • Seolyzer

 

 

 

 

Indexación

 

¿Qué es la Indexación?

 

Indexación es el proceso a través del cual los motores de búsqueda incluyen los contenidos de los sitios web que rastrea en Internet en el índice de google o en su base de datos, también llamado indexación web, a través de los motores de búsqueda, mediante palabras clave y meta dados o meta etiquetas.

 

Mediante palabras clave o frases los bots de google asignan a las páginas o sitios webs a través de meta etiquetas que puedan ser recuperados por un motor de búsqueda, que personaliza la búsqueda en campos de palabras clave o clusters de contenidos, métodos conocidos en el entorno de Search Engine Optimization, también conocido como SEO.

 

Utiliza diferentes técnicas para el posicionamiento de las páginas web en función a las palabras clave que el utiliza el usuario para hacer la búsqueda.

 

A través de la Indexación los buscadores encuentran las páginas web y la integran en los resultados de búsqueda de las páginas que muestra a los usuarios, también llamadas las SERP, Search Engine Results Page o Página de resultados del buscador.

 

Este procedimiento es fundamental en el posicionamiento web, ya que sigue las instrucciones del archivo robots.txt, palabras clave y un conjunto de técnicas que determinarán que aparezcan en los resultados de búsqueda.

 

La base de un buen posicionamiento seo es la indexación, si google no indexa el contenido es como si no existiera, por lo tanto nunca lo mostrará en sus resultados de búsqueda.

 

Herramientas para comprobar la Indexación

  • Search console: inspección de Url’s
  • site: tudominio.com
  • Url Profiler (de pago)
  • Greenlane Marketing 
  • Screaming Frog (Descartar: NoIndex, Robots.txt, 3xx, 4xx, imágenes)
  • Seolyzer

 

 

 

Http – Https – Http/3

 

Http son las siglas de HyperText Transfer Protocol o HyperText Transfer Protocol Secure, traducido al español: protocolo del tipo petición – respuesta de transferencia de hipertexto, es el protocolo de comunicación que permite las transferencias de información en la www, World Wide Web.

 

Es el protoco a través del cual los usuarios y servidores pueden comunicarse, requiere de un cliente y un servidor, mediante una url el usuario hace la petición de descarga en el navegador y el servidor da la respuesta, comenzando la descarga.

 

Https es la versión segura del protocolo http, y combina los protocolos HTTPS y SSL/TS, usando una conexión encriptada, mediante una clave pública permite al receptor desencriptar la información recibida, alojada en un servidor incluida en lo que se conoce como certificado SSL

 

Ventajas;

  • Transmite seguridad
  • Los datos están seguros

 

Realizar una migración de http a https es una tarea que deben realizar los especialistas y expertos, ya que requiere de conocimientos específicos en el tema, hay que comprobar que se tenga el certificado de seguridad instalado y configurado, que todas las Url’s redirigen al protocolo seguro, https.

 

Http/3 es la nueva versión del protocolo de comunicaciones que permite las transferencias en la web, dejando de usar el protocolo TCP, sustituyéndolo por otro llamado QUIC, desarrollado por google, siendo más rápido y seguro, ya le dan soporte Mozilla con Firefox, Google con Chrome y Clodflare.

 

 

 

 

 

Caché

 

Página web de caché, google almacena todas las páginas web como copias de seguridad para utilizarla encaso que no esté disponible la versión actualizada de la página.

 

Hay que controlar con qué frecuencia google cachea nuestro sitio web o a algunas páginas en concreto para comprobar que no existe ningún fallo de cacheo.

 

Acceder a un enlace de caché;

  1. Buscar en Google la página que quieres encontrar.
  2. Haz clic en la flecha hacia abajo situada a la derecha de la URL del sitio.
  3. Haz clic en En caché.
  4. Cuando accedas a la página en caché, haz clic en el enlace de la versión actual de la página para volver a la página publicada actualmente.

 

 

 

 

Para saber cuando ha sido rastreado tu sitio web por última vez;

  • cache:tudominio.com

 

 

 

 

Sintaxis Url’s

 

¿Qué es una Url?

 

URL ó  Uniform Resource Locator, localizador o identificador de recursos uniforme, la dirección puede apuntar a diferentes recursos variables. Está formada por una secuencia de caracteres con un formato y modelo determinado.

 

Se podría definir como el formato de texto de una dirección IP, legible para los usuarios y ordenadores, facilitando que puedan comunicarse con los servidores.

 

La sintaxis de una URL está formada por;

1 – Protocolo: http / https (protocolo básico)

2 – Subdominio: www

3 – Dominio: nombredominio (nivel principal web)

4 – TLD (Top Level Domain): extensión del dominio (.com)

5 – Subcarpeta: carpetas dentro de dominio

6 – Página: contenido final

7 – #: opciones de página o nivel

 

https://www.manuduque.com/community-manager/diccionario-community-manager#

 1      //                           4  /                                 /                                                    

 

 

 

 

 

Enlaces rotos

 

Enlaces rotos son los enlaces que apuntan a un contenido inexistente,  no encontrada o no disponible, ya sean enlaces internos del propio sitio web o enlaces que apuntan a otros sitios, devolviendo un error 404.

 

Herramientas para identificar enlaces rotos;

  • Broken link checker
  • CheckBot (extensión chrome)
  • Screaming frog

 

 

 

 

Errores 3xx, 4xx y 5xx

 

Códigos Respuesta 3xx, 4XX y 5XX, http es el protocolo de transferencia de hipertexto definido como estándar que permite que la web funcione, entre la  petición del cliente o navegador web y el servidor qu edevuelve el código de estado.

 

Códigos de respuesta 2xx, 3xx, 4xx y 5xx;

  • 2xx; peticiones correctas
  • 3xx; redirecciones
  • 4xx; errores del cliente (navegador web)
  • 5xx; errores del servidor

 

Herramientas para comprobar códigos de respuesta 3xx, 4xx y 5xx;

  • Screaming Frog: códigos de respuesta
  • httpstatus.io

 

 

 

Meta etiquetas, Microdatos y CTR

 

Etiquetas HTML son fragmentos de texto con funciones e información específica que se utilizan en el código Html, también denominanadas Tags.

 

Estos fragmentos de código contienen información que envían a los buscadores para que identifiquen el contenido de las páginas web, dentro de las etiquetas están;

 

Meta Title; contiene la información del título de la página web, que aparecerá en los resultados de búsqueda en las SERPs, cuando los usuarios realicen la búsqueda.

 

Meta Description; resumen breve del contenido de una página web, que junto con la Meta Title aparecerá en los resultados de búsqueda

 

 

 

Microdatos son fragmentos enriquecidos que categorizan el contenido de la página web mediante un formato de texto Schema.org y JSON-LD, cuya función es ordenar y categorizar el contenido de la web.

 

Los microdatos son especificaciones HTML que se emplean para anidar metadatos en el contenido existente de una página web, que los buscadores, bots y navegadores pueden extraer y procesar, para su posterior muestra de resultados a los usuarios.

 

CTR es la métrica que indica el porcentaje de veces que el usuario hace clic sobre un enlace, respecto del número de veces que se muestra

 

Para calcular este CTR se realiza de la siguiente manera:

Número de veces que se ha mostrado el enlace / Número de veces que se ha hecho clic en el enlace

 

 

 

 

 

SEO On Page

 

El Seo On Page es la parte del Seo que se puede controlar, es controlable, la parte que depende exclusivamente de las acciones que realices en ella, contenidos, títulos y demás.

Otra de las características principales es que es sostenible a largo plazo.

Es el Seo más perdulable a largo plazo, más seguro y más premiado por google.

 

Contenido de calidad, útil y relevante para el usuario y para google.

 

Debemos ofrecer el mayor valor que podamos dar al usuario y evitar que se produzcan los short clicks, que es cuando un usuario realiza una búsqueda y retrocede a la página de resultados de goolgle y hace click en otro resultado.

 

El posicionamiento orgánico es el que se produce de forma natural, sin que medien campañas publicitarias o anuncios de pago, en el que intervienen algunos factores que determinarán su posicionamiento final como, el contenido de la página, la estructura o arquitectura, el Seo off page, linkbuilding, linkbaiting y otras técnicas seo que influyen en el posicionamiento.

 

El objetivo es aparecer en las primeras posiciones de la página de resultados de búsqueda para unas determinadas palabras clave.

 

Por lo tanto, la optimización en el posicionamiento seo se compone de;

  • Interna / Seo On page: Mejoras en el contenido, accesibilidad, arquitectura.
  • Externa / Seo Off page: Mejorar la notoriedad y relevancia de la web mediante enlaces entrantes, también llamado tráfico de referencia.

 

En la página de resultados de búsqueda apacerán resultados orgánicos naturales y de pago, también conocido como Search Engine Marketing, SEM, mediante el servicio de google Ads, también conocido como AdSense.

 

Factores técnicos que influyen en el posicionamiento interno de la página web;

  • Contenido original, de calidad, útil y relevante
  • Diseño wed responsive, adaptabilidad a dispositivos móviles
  • Rastreable por los bots de los buscadores
  • Usabilidad y velocidad de carga web, WPO
  • Experiencia de ususario UX (user experience)
  • Diseño web funcional, de fácil acceso y que capte la atención del ususario
  • Título y descripciones únicos
  • Enlazado interno, mapa del sitio web, sitemaps.
  • Servidores fiables
  • Url’s amigable o friendly Url
  • Meta etiquetas, cabeceras H1, H2, H3
  • Densidad de palabras clave

 

 

 

Contenido

 

Semántica y variedad palabras clave

 

Seo semántico o búsqueda semántica busca mejorar la búsqueda realizada por el usuario de una forma más precisa, mediante la comprensión de la intención de búsqueda y el significado contextual de los términos utilizados.

 

La búsqueda semántica tiene como objetivo encontrar palabras clave que determinen la intención y significado de búsqueda que realiza el usuario.

 

 

 

 

 

Encabezados H1, H2

 

Jerarquía de encabezados o etiquetado html, tienen que incluir las palabras clave principales

 

 

 

Jerarquía de encabezados:

  • Web Developer (extensión Chrome); Information > View Document Outline

 

 

 

 

Densidad Palabras Clave y Prominencias

 

Densidad de Palabras Clave es la cantidad de veces que se repite una palabra clave o keyword en un texto, no por repetir una misma keyword o palabras clave relacionadas, nuestro contenido va a tener mayor relevancia, al revés, google penaliza de forma drástica este tipo de prácticas, pudiendo llegar a penalizarnos por keyword stuffing.

Keyword stuffing es la práctica de repetir una y otra vez las mismas palabras clave en un mismo texto con la finalidad de querer aportar una mayor Prominencia.

 

Sin entrar a valorar cual o cuales son los porcentajes más adecuados para optimizar un texto, la mejor indicación es hacer un uso apropiado del lenguaje, de coherencia, lógica y sin intentar saturar la comprensión lectora del usuario, sentido común.

 

No saturar un texto con excesivas keywords que tengan un significado muy similar, que no aportan una mayor información.

 

 

 

Canibalización y Duplicidades de Contenido

 

Canibalización SEO es cuando los motores de búsqueda no saben diferenciar cual es la página o contenido que mostrar con una determinada búsqueda, cuando ante dos contenidos similares no tiene claro cual es la respuesta más acertada.

Este hecho se da cuando una misma palabra clave lucha por posicionar con diferentes Url’s de una misma temática para cada intención de búsqueda del usuario

 

Duplicidades de contenidos, se dan en descripciones de productos o servicios muy similares o idéntico. Es conveniente que cada ficha de producto tenga textos descriptivos distintos para evitar la duplicidad de contenidos.

 

Acciones a realizar en Canibalizaciones y Duplicidades de Contenido

  • Redirección 301
  • Fusión contenido
  • Canonical
  • Noindex
  • Modificar contenido
  • Enlazado interno
  • Enlazado externo

 

Comprobar las canibalizaciones

Sistrix: keywords > Mostrar keywords con + de una URL posicionada

site: midominio.com *keyword

Search Console: Rendimiento > keyword > páginas

 

Footprints

site: dominio.com keyword

site: dominio.com  inurl:keyword

site: dominio.com intitle:keyword

 

 

 

 

Canonical

 

Canonical es la etiqueca que indica a los buscadores cual es el contenido principal que debe posicionar en caso de encontrar duplicidades de contenidos o muy similiares.

etiqueta; rel=»canonical»

 

Si existen Urls distintas y el contenido sea muy similar, o varias páginas con contenidos de productos muy parecidos, es recomendable hacer uso de esta etiqueta, rel=»canonical».

Para los buscadores es un indicativo de cual es la Url preferida dentro de un mismo grupo de páginas con contenido muy similar o idéntico.

 

 

 

Migas de pan

 

Migas de pan o Breadcrumbs permiten que los motores de búsqueda rastreen la web de manera más accesible, en páginas con artículos, fichas de producto, etc. Es necesario que estén implementados para el usuario en la página web, como a nivel interno en los Rich Snippets con el marcado de datos JSON-LD.

 

 

 

 

 

Optimización imágenes

 

  • Screaming frog: Optimización de imágenes

 

 

 

 

 

Enlazado interno

 

Enlazado internointerlinking es un factor de Seo On page que mejora la experiencia de usuario, ofrece mayor información que complementa el contenido que se ofrece al usuario.

 

 

 

 

Arquitectura del Sitio Web

 

Arquitectura Sitio Web

  • Arquitectura de la información – keywords
  • Sitemap: estructura web
  • Mapa del sitio: usuarios y buscadores

Generar un mapa del sitio web en HTML ayuda a buscadores y usuarios.

  • Sintaxis Url´s
  • Niveles arquitectura

 

 

 

 

Mobile Friendly Test

 

Mobile-First Indexing de Google, índice para desktop o escritorio y móvil, diseño responsive de sitio web.

 

Mobile Friendly Test

 

 

 

 

Popularidad – Autoridad web

 

Popularidad – Autoridad de Enlaces: auditoría SEO de enlaces, linkbuilding y estrategia de enlaces externos es uno de los factores clave de posicionamiento.

 

ahrefs.com/website-authority-checker

 

 

 

 

Usabilidad Web

 

Usabilidad web es la facilidad que tiene el usuario al interactúar con una página web, por su sencillez de uso, intuitiva, accesible segura, que logra crear una comunicación e interacción fluida entre usuario y página web.

Contenidos estructurados y jerarquizados, diseño limpio, contenido clasificado.

Web adaptable a todo tipo de dispositivos.

 

 

 

Velocidad de carga

 

Herramientas

  • Pingdoom Tools
  • GTMetrix
  • Lightouse de Google
  • Batch Speed

Velocidad de carga

  • SpeedWP

 

ragose.com/speedwp/

 

 

 

WPO (Web Performance Optimization)

 

WPO Web Performance Optimization

  • Reducir peso de la web
  • Aumentar tiempo rastreo
  • Servidor GZIP, mejora rendimiento servidor y tiempo de respuesta
  • Carga asíncrona  / lazy loading
  • CDN o redes de distribución de contenidos
  • AMP / PWA

 

 

 

 

Seo Off Page

 

Seo Off Page son las técnicas que se emplean para mejorar la autoridad de la página web que se producen fuera de la página, mediante enlaces que apuntan a la web.

 

Acciones de Seo Off Page que mejoran la autoridad web;

  • Enlaces de temática relacionada 
  • Enlaces desde redes sociales 
  • Directorios, foros
  • Guest blogging: artículos en sitios web
  • Intercambio contenido

Linkbuilding  o construcción de enlaces;

  • Medir cantidad de personas que están buscando a través de una palabra clave
  • Efectividad del posicionamiento
  • Posicionamiento de marca o branding
  • Total enlaces entrantes
  • Dominios únicos con enlaces entrantes
  • Autoridad de cada url
  • Autoridad del dominio
  • Qué dominios nos enlazan y cuántos
  • Cuál es su autoridad
  • Cuántos enlaces nos llegan de ese total de dominios enlazados
  • Tanto por cien de dofollow y nofollow

 

 

 

 

Seo Local e Internacional

 

Seo Local

  • Ficha de empresa en Google My Business
  • Contenido optimizado
  • Imágenes y ficha geolocalizada
  • Reseñas
  • Marcado de datos estructurados
  • Keywords de long tail locales
  • Enlaces locales
  • Adaptada a versión móvil
  • My Maps de Google
  • Optimización WPO

 

 

 

Seo Internacional

 

  • Alternate: meta-tags indican a Google las versiones en otros idiomas de nuestra web/página.
  • Dominios / Subdominios / Directorio /  Traducciones

 

 

 

 

Auditorías Seo Express

 

🔹  Screaming Frog

🔹  Dinorank

🔹  Safecont

 

 

Herramientas y Recursos de Auditoría Seo

 

 

Herramientas de Auditoría Seo

  • Ahrefs
  • Baidu Webmaster Tools
  • Bing Webmaster Tools
  • Broken Link Checker
  • Fandango SEO
  • Google Analytics
  • Google Search Console
  • Greenlane
  • GTmetrix
  • Httpstatus.io
  • Netpeak Spider
  • Pingdom
  • Screaming Frog
  • SEMrush
  • Sistrix
  • Test Mobile Friendly de Google
  • Url Profiler
  • WebPageTest
  • Yandex Webmaster Tools

 

 

Plugins

  • All in One SEO Pack
  • Yoast SEO
  • Rank Math
  • The SEO Framework

 

 

Extensiones Chrome

  • CheckBot
  • SeeRobots
  • Web Developer

 

 

Herramientas online de Google

  • Pruebas datos estructurados.
  • Velocidad y rendimiento sitio web móvil 
  • AMP 

 

 

 

¿Cuánto cuesta una Auditoría Seo?

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

imagen portada; Vector de Negocios creado por freepik – www.freepik.es

error: Content is protected !!