SEO Técnico: Fundamentos de Seo Técnico (Nivel BÁSICO)

 

SEO Técnico by IKAUE

 

SEO técnico explicado con detalle y sin tecnicismos para ser entendido por usuarios no experimentados en SEO técnico.

 

Iñaki Huerta, a través de su canal de youtube IKAUE, explica de forma detallada el proceso que sigue google en el Rastreo, Indexación, así como los procesos para determinar qué documentos o contenidos son los más adecuados para incluirlos en sus Bases de Datos, para mostrarlos posteriormente en las SERPs o página de resultados de búsqueda, cuando un usuario realiza una búsqueda.

 

Si tu nivel de SEO técnico no va más allá de saber que un navegador hace peticiones a un servidor y este responde, esto te interesa, sigue leyendo.

 

 

 

Fundamentos de SEO Técnico.

 

SERP’s, Documentos, URL’s, Snippets, Googlebot.

 

Google es un buscador que mediante su caja de búsqueda, ofrece resultados a las consultas que hacen los usuarios.

 

El usuario añade una palabra o consulta concreta, también llamada keyword, en la caja de búsqueda y google, busca en sus bases de datos la información que demanda el usuario, para ofrecerle la mejor de las respuestas posibles.

 

Google rastrea sus documentos o Urls y muestra en las SERPs los mejores resultados posibles para esa búsqueda.

 

 

 

¿Qué son las SERP’s?

 

Las S.E.R.P. son el acrónimo de Search Engine Results Page (Página de Resultado de Búsqueda)

 

 

¿Qué son los Documentos?

 

Un Documento es una URL exacta, es la unidad más pequeña que utiliza google como elemento para identificar el contenido, como Documento Completo.

 

Google posiciona Documentos, no Contenidos, aunque solo muestre “fragmentos de texto”, “respuestas directas”, “imágenes”, “vídeos” u otros elementos.

 

 

¿Qué es una URL?

 

Una URL es el acrónimo de Uniform Resource Locator, es el texto que identifica de forma estable dónde se puede encontrar un recurso en Internet.

 

Características de una URL para que google pueda leer un contenido;

 

  • Accesible para los robots de google (excepto login, formularios, cookies).
  • URL única y fija.
  • URL referenciada, mediante links de otras Urls, sitemaps.xml, herramientas de google.
  • URL amigable

 

 

¿Qué es una URL amigable?

 

Google indexa tanto Urls amigables como páginas dinámicas.

 

Una Url amigable simplemente evita posibles errores técnicos y facilita la comprensión lectora de los usuarios y la estructura web.

 

 

¿Qué son los Snippets?

 

Los Snippets son un resumen del Documento que google decide mostrar, pueden ser;

  • Url, título, descripción.
  • Vídeos

 

 

¿Qué son los Googlebot?

 

Los Googlebot o Arañas de Google, los Bots son programas informáticos creados para rastrear las webs, leen el HTML, clasifican e indexan.

 

Se mueven saltando de link a link, desde otros sites al nuestro y desde nuestro propio site.

 

Se alimentan de Autoridad web de las páginas, si existen muchos saltos entre páginas o éstas no poseen demasiada Autoridad no indexa las páginas.

 

 

¿Qué es la indexación?

 

La indexación es cuando google indexa las páginas para que se incluyan en sus resultados de búsqueda.

 

Para que un contenido de la página web aparezca en los resultados de búsqueda, tiene que ser incluido en el índice de google, mediante la indexación, para que posteriormente lo muestre en las SERP’s.

 

Google enumera todas las páginas webs que rastrea, detecta las páginas nuevas y actualizadas para actualizar su índice.

 

Se puede comprobar qué páginas de tu sitio web tiene google indexadas en su índice mediante la búsqueda «sitio:misitioweb.com».

 

 

 

Vías de indexación;

  • Google Search Console
  • Sitemaps.xml
  • Feed de noticias RSS / Atom
  • Redes Sociales, redes de blogs

 

 

Estrategia de indexación básica:

  • Urls accesibles y únicas (recomendable amigables).
  • Envío de links desde otras páginas web o home, listados de nuestro site.
  • Pocos saltos de links, para que google rastre todos los contenidos.
  • Sitemap en Google Search Console.
  • Publicación de contenidos en redes sociales, links desde varios puntos.

 

 

 

 

Cómo descubre Google el contenido en Internet

 

SEO

RASTREO – INDEXACIÓN

SEARCH INTENT – AUTORIDAD

 

“Si google no te indexa, no existe el contenido”.

 

 

Googlebot rastrea internet para descubrir nuevas Urls en internet a través de distintos medios:

  • Links en otros sites
  • Archivos sitemaps
  • Fuentes de Url´s comunes (feed noticias, RRSS, PDFs)
  • Fuentes raras

 

Priorizar el rastreo de las Urls más importantes, google tiene más cola de rastreo que recursos asignados.

 

 

Cola de rastreo;

 

Url 1 (sí)

Url 2 (sí)

Url 3 (sí)

Url 4 (pendiente)

Url 5 (pendiente)

 

 

La autoridad afecta a la cola de rastreo, priorizando las Urls más enlazadas entrantes.

 

Si googlebot descubre links hacia una Url la visita.

 

Prioriza > links  > rastreo

(Importante: enlazar a la home desde todas las páginas del site.)

 

 

 

 

Códigos HTTP o Status Code

 

 

Tipos de códigos de estado de respuesta HTTP

  1. Respuestas informativas(100–199)
  2. Respuestas satisfactorias (200–299)
  3. Redirecciones (300–399)
  4. Errores de los clientes (400–499)
  5. Errores de los servidores (500–599)

 

 

Principales códigos de estado de respuesta HTTP

 

  • 200 (ó 304); Página correcta.
  • 301; Contenido redirigido (permanentemente a otra Url).
  • 302; Contenido redirigido temporalmente (menos de un día).
  • 404; Contenido No encontrado o Inexistente.
  • 410; Contenido eliminado (refuerza la eliminación).
  • 500; Error interno no identificado.
  • 503; Servidor sobrecargado (ó 429 demasiadas peticiones).

 

 

Herramientas para comprobar códigos de estado HTTP

 

  1. Vista “network” de google chrome (Más herramientas > Herramientas para desarrolladores).
  2. Extensión “Redirect Path” de chrome.
  3. “Crawler” (rastreadores);
    • Screamingfrog
    • Sitebulb (de pago)

 

Información adicional;

 

Códigos de estado de respuesta HTTP

 

 

 

Control de Indexación SEO

 

  • Google trabaja con Urls exactas.
  • Rastrea link a link con googlebot (arañas).
  • Búsqueda de Urls accesibles, estables y correctas (200).
  • Otros códigos 301, 404, logins, etc.

 

 

Niveles de indexación SEO

 

  • Nivel 1; Contenidos con keywords.
  • Nivel 2; Saber cómo rastrea googlebot, Urls, links.
  • Nivel 3; Priorizar contenidos de más valor, dirigir a ggoglebot. (Saber cómo funciona Internet y google, con sistemas del propio google.)

 

 

Directrices y señales de indexación

 

Directrices (Siempre hace caso)

  • HTTP Status (200, 301, 404, etc.)
  • Robots.txt activos (disalow, allow)
  • Bloqueos página (noindex, nofollow)

 

 

Señales (Hace caso si está de acuerdo)

  • Enlaces (<a/>, <link>)
  • Archivos sitemaps (xml, txt, etc.)
  • Atributo Rel (nofollow, sponsored, UGC)
  • Link canonical
  • Link Hreflang
  • Marcados semánticos (microdatos, json, etc.)

 

 

 

Cómo funciona el rastreo

 

Las arañas de google siguen la cola de rastreo, visitan las Urls, analiza, guarda la información (indexa y guarda en cola de rastreo).

 

 

 

Googlebot;

 

Cola de rastreo; Links pendientes de analizar ordenados por prioridad.

 

Url a analizar; Rastrea, analiza su contenido y extrae los enlaces.

  • BBDD de google con todo lo rastreado.
  • Cola de rastreo.

 

 

 

Bloqueos a nivel de página

 

Marcado especial asociado a página HTML o cabecera HTTP, prohíbe a google indexar contenidos o rastrear enlaces.

 

Robots.txt; Archivo que permite o prohíbe a googlebot rastrear en páginas.

  • Indexación de página; index / noindex
  • Rastreo de enlaces; follow (enlaces a cola de rastreo) / nofollow
  • Sin marcado; rastrea enlaces e indexa.
  • Noindex / nofollow; No indexa, No sigue enlaces.
  • Index / nofollow; Indexa, No sigue enlaces.
  • Nofollow; Indexa, No sigue enlaces.
  • Etiqueta HTML; <meta name=’robots’ content=’noindex, follow’/>
  • Cabecera HTTP; x-robots-tag: noindex, follow.

 

 

Archivo sitemaps; Documento que dice a google todas las páginas del site.

  • Xml, txt (una línea por Url), Feed (de noticias).

 

 

Link canonical; Etiqueta que soluciona el contenido duplicado, determina cual es la página prioritaria.

  • Etiqueta HTMl; <link rel=”canonical” href=”url”>
  • Cabecera HTTP; link; <https:// “url”>; rel=”canonical”

 

 

Link HREFLAG; Indica a google la página determinada según la región geográfica.

 

 

Atributos rel de enlaces; Permite indicar a googlebot que no debe seguir ciertos enlaces (no añadir a la cola de rastreo), afecta a la autoridad traspasada.

  • Follow (implícito).
  • Sponsored; enlace pagado.
  • UGC (User generated content); enlace de usuarios en el site.

 

 

Marcados semánticos; Codificaciones del HTML (u objetos Javascript) que permite identificar items, acciones o conceptos en el site).

 

Url a analizar;

  • Temas
  • Categorización
  • Votaciones usuarios
  • Productos, precios
  • Eventos, horarios

 

 

 

 

 

 

 

Autoridad de páginas, Link Juice, Popularidad y PageRank

 

 

Google gestiona la autoridad de páginas y la popularidad de un site basándose en Conceptos como;

  • Intención de búsqueda del usuario (Search Intent).
  • Calidad EAT; Experiencia, Autoridad, Confianza (Trust).

 

Pagerank; Colección de algoritmos que asigna una métrica de relevancia a cada documento indexado.

 

Link Juice (Documento indexado);

“Reasonable Surfer” (Patente de google 2010 – act. 2016); No todos los links tienen el mismo peso, se priorizan según la probabilidad del usuario en hacer clic en un enlace.

 

 

Conceptos generales;

  • > Enlaces recibidos + Autoridad
  • > Autoridad de página que enlaza > Autoridad traspasa
  • < Enlaces de página > Autoridad traspasa
  • > Visibilidad / Importancia de enlace > Autoridad traspasa.

 

 

ON PAGE (enlazado interno)

  • Optimización distancia de rastreo
  • Arquitectura de información
  • Link Sculping

 

OFF PAGE (conseguir enlaces)

 

 

Información adicional;

Curso de iniciación al SEO Técnico by IKAUE

 

 

 

 

Te puede interesar;

 

Cursos de SEO Técnico: WPO, Desarrollo web y Programación

 

 

error: Alert: Este contenido está Protegido © !!