Guía completa sobre SEO técnico en 2021

Menciona tres cosas que hayas hecho este año que pertenezcan a la optimización en motores de búsqueda (SEO, por sus siglas en inglés). ¿Estas tácticas están basadas en palabras clave, metadescripciones y backlinks?

Si es así, no eres el único. Cuando se trata de SEO, estas técnicas son las primeras que usualmente se agregan al arsenal de los marketeros. Aunque estas estrategias sí mejoran la visibilidad de tu sitio en búsquedas orgánicas, no son las únicas que deberías implementar, pues existe otro grupo de tácticas dentro del vasto mundo del SEO.

El SEO técnico se refiere a los elementos tras bambalinas que aumentan tu motor de crecimiento orgánico, como la arquitectura de sitio, la optimización móvil y la velocidad de página. Tal vez estos aspectos de SEO no sean los más atractivos, pero son increíblemente importantes.

El primer paso para mejorar tu SEO técnico es conocer tu diagnóstico al llevar a cabo una auditoría a tu sitio. El siguiente paso es crear un plan que se enfoque en las áreas donde más cojeas. Abarcaremos estos temas a profundidad en lo que sigue.

¿Qué es el SEO técnico? 

El SEO técnico se refiere a todo lo que haces para que tu sitio sea más sencillo de indexar y rastrear por los motores de búsqueda. El SEO técnico, la estrategia de contenidos y las estrategias de link building trabajan juntos para ayudar a que tus páginas clasifiquen más alto en una búsqueda.

Diferencias entre el SEO técnico, SEO on page y SEO off page 

SEO on page

SEO on page incluye el contenido que le dice a los buscadores y usuarios de qué se trata tu página, incluyendo los alt text de imagen, uso de palabras clave, metadescripciones, etiquetas H1, nombre de URL y linking interno. Tienes casi todo el control sobre el SEO on page porque, bueno, todo está en tu sitio.

SEO off page 

SEO off page le dice a los motores de búsqueda qué tan popular y útil es tu página, gracias a los votos de confianza (sobre todo por los backlinks o links de otros sitios que dirigen al tuyo). La cantidad y calidad de backlinks aumentan el PageRank de una página. En igualdad de circunstancias, una página con 100 links relevantes de sitios confiables superará a otra con 50 links relevantes de sitios confiables (o 100 links irrelevantes de sitios confiables).

SEO técnico 

También puedes tener el control del SEO técnico, pero es un poco más complicado de dominar porque es menos intuitivo. 

¿Para qué sirve el SEO técnico? 

Puedes sentir la tentación de ignorar este componente SEO; sin embargo, desempeña un rol importante en tu tráfico orgánico. Tu contenido puede ser el más minucioso, útil y mejor escrito, pero muy poca gente lo podrá ver a menos que un motor de búsqueda pueda rastrearlo.

Es como un árbol que cae en el bosque cuando no hay nadie alrededor para escucharlo: ¿acaso hace algún sonido? Sin una base sólida de SEO técnico, tu contenido no hará ruido para ningún buscador.

Hablemos de la manera en que puedes hacer que tu contenido resuene por todo internet.

¿Cómo funciona el SEO técnico?

El SEO técnico se domina mejor si se divide en partes. Aunque no lo creas, todo lo que hemos mencionado hasta este punto puede pertenecer a una de cinco categorías.

Estas cinco categorías y su lugar en la jerarquía del SEO técnico se ilustran mejor en la siguiente gráfica que recuerda a la pirámide de Maslow, pero adaptada para SEO.

Jerarquía de los elementos del SEO técnico

Aspectos fundamentales de la auditoría de SEO técnico

Existen unos cuantos fundamentos que debes entender antes de que comiences tu auditoría de SEO técnico. Expliquémoslos antes de avanzar al resto de la auditoría de tu sitio web.

1. Audita tu dominio preferido 

Tu dominio es el URL que la gente teclea para llegar a tu sitio. El dominio de tu sitio web influye si las personas logran encontrarte a través de una búsqueda y provee una manera consistente de identificar tu sitio.

Cuando seleccionas un dominio, le dices a los buscadores si prefieres que la versión con o sin www se muestre en los resultados. Por ejemplo, puedes elegir www.tusitio.com sobre tusitio.com. Esto le indica a los motores de búsqueda que le den prioridad a la versión con www y redirige a todos los usuarios a esa URL. De lo contrario, los buscadores tratarán las dos versiones como si fueran dos sitios separados, lo que resulta en un valor SEO disperso.

Anteriormente, Google te pedía que identificaras la versión que preferías de tu URL. Ahora, Google identificará y seleccionará por ti una versión para mostrar a los buscadores. Sin embargo, si te inclinas por alguna versión de tu dominio puedes hacerlo a través de etiquetas canónicas (de las que hablaremos pronto). De cualquier forma, una vez que estableces tu dominio preferido, asegúrate de que todas las variantes (es decir: www, sin www, http e index.html) se redirijan permanentemente a esa versión.

2. Implementa SSL 

Es posible que ya hayas escuchado este término antes, porque es muy importante. El SSL, o capa de sockets seguros (secure sockets layer, en inglés), crea una capa de protección entre tu servidor web (el software responsable de cumplir con una petición en línea) y un navegador para que tu sitio sea seguro. Cuando un usuario envía información a tu sitio, como datos de pago o de contacto, tiene menos posibilidades de ser hackeada gracias al SSL que la protege.

Un certificado SSL se muestra en los dominios que inician con «https://» con un símbolo de candado en la barra de direcciones, al contrario de los «http://».

Los motores de búsqueda le dan prioridad a los sitios seguros. De hecho, Google anunció desde 2014 que el SSL sería considerado como un factor de calificación. Precisamente por esto, asegúrate de que hayas establecido la variante SSL de tu página de inicio como tu dominio preferido.

Después de que establezcas el SSL necesitarás migrar cualquier página sin SSL de http a https. Es mucho pedir, pero vale la pena hacer el esfuerzo a fin de mejorar tu ranking. Estos son los pasos que debes tomar:

  1. Redirige todas las páginas de http://tusitioweb.com a to https://tusitioweb.com.
  2. Actualiza todas las etiquetas canónicas y hreflang.
  3. Actualiza los URL en el mapa de tu sitio (localizado en tusitioweb.com/mapadesitio.xml) y tu robot.txt (localizado en tusitioweb.com/robots.txt). 
  4. Establece una nueva instancia de Google Search Console y de Bing Webmaster Tools para tu sitio https y rastréalo para asegurarte de que todo el tráfico haya migrado.

3. Optimiza la velocidad de página 

¿Sabes cuánto tiempo esperará un visitante a que cargue tu sitio web? Seis segundos, y eso si se siente generoso. Algunos datos muestran que la tasa de rebote aumenta un 90% cuando el tiempo de carga de una página se alarga de uno a cinco segundos. No tienes un segundo que perder, así que debería ser una prioridad mejorar el tiempo de carga de tu sitio.

La velocidad del sitio no es solo importante para la experiencia del usuario y la conversión, también es un factor de ranking.

Usa estos consejos para mejorar el tiempo promedio de carga de tus páginas:

  • omprime todos tus archivos. La compresión reduce el tamaño de tus imágenes, al igual que el CSS, HTML y los archivos JavaScript para que ocupen menos espacio y se carguen más rápido.  
  • Audita las redirecciones regularmente. Una redirección 301 necesita algunos segundos para procesarse. Multiplícalo por varias páginas o capas de redirecciones y te encontrarás con un impacto importante en la velocidad de tu sitio.  
  • Ordena tu código. Un código desordenado puede impactar de manera negativa en la velocidad de tu sitio. Además, un código desordenado evidencia pereza. Es como al escribir: tal vez en el primer borrador llegas al punto en seis frases. En el segundo, lo logras a la tercera. Cuanto más eficiente es el código, más rápido cargará la página (generalmente). Una vez que limpies un poco, podrás reducir y comprimir tu código
  • Considera una red de distribución de contenidos (CDN).  Los CDN (por sus siglas en inglés) son servidores web distribuidos que almacenan copias de tu sitio web en diferentes locaciones geográficas y que entregan tu sitio según la ubicación del buscador. Debido a que la información entre los servidores tiene que recorrer una distancia más corta, tu sitio carga rápido para quien lo pide. 
  • Intenta no emocionarte con los plugins. Frecuentemente, los plugins anticuados muestran vulnerabilidades de seguridad que hacen que tu sitio web sea susceptible a hackers maliciosos que pueden dañar tu ranking. Asegúrate de que siempre utilices las versiones más actualizadas de los plugins y minimiza su uso a lo esencial. Considera usar temas hechos a la medida, pues los predeterminados suelen estar cargados de código innecesario.   
  • Sácale provecho a los plugins de caché. Los plugins de caché almacenan una versión estática de tu sitio para enviarla a los usuarios que regresan, disminuyendo el tiempo de carga del sitio durante visitas constantes.  
  • Usa carga asincrónica (async). Los scripts son instrucciones que los servidores necesitan leer antes de procesar el HTML, o cuerpo, de tu página web; por ejemplo, las cosas que los visitantes quieren ver en tu sitio. Normalmente, los scripts se localizan donde dice <head> de un sitio web (piensa en el script de tu Gestor de Etiquetas de Google), donde son priorizados sobre el contenido del resto de la página. Usar un código async significa que el servidor puede procesar el HTML y el script de manera simultánea, disminuyendo así el retraso y mejorando el tiempo de carga de la página. 

Así luce un script async:  <script async src=»script.js»></script> 

Descubre los puntos en los que tu sitio falla en el departamento de velocidad con la ayuda de esta herramienta de Google. 

Una vez que tengas tus fundamentos de SEO técnico en su lugar, todo está listo para ir a la siguiente etapa: rastreo. 

Rastreo 

El rastreo es la base de tu estrategia de SEO técnico. Bots buscadores rastrearán tus páginas para recopilar información acerca de tu sitio. 

Si estos bots son bloqueados de alguna manera, no podrán indexar o calificar tus páginas. El primer paso para implementar el SEO técnico es garantizar que tus páginas importantes sean accesibles y fáciles de navegar. 

Abajo hablaremos de algunos elementos que puedes agregar a tu lista, así como también algunos aspectos que puedes auditar de tu sitio web para garantizar que tus páginas están preparadas para el rastreo. 

¿Cómo mejorar el rastreo de tu sitio web?

  1. Crea un mapa de sitio XML. 
  2. Maximiza tu tiempo de rastreo. 
  3. Optimiza la arquitectura de tu sitio. 
  4. Establece una estructura de URL. 
  5. Utiliza robots.txt. 
  6. Añade menús de breadcrumbs.
  7. Utiliza la paginación. 
  8. Revisa tus archivos log de SEO. 

1. Crea un mapa de sitio XML

¿Recuerdas lo que revisamos sobre la estructura de sitio? Es parte de lo que se conoce como mapa de sitio XML que ayuda a los bots de búsqueda a entender y rastrear tus páginas web. Puedes verlo como un mapa de tu sitio. Ingresarás tu mapa de sitio a la Google Search Console y a Bing Webmaster Tools una vez que esté completo. Recuerda mantener tu mapa actualizado cada vez que agregues o elimines páginas web. 

2. Maximiza tu tiempo de rastreo

Tu tiempo de rastreo (también conocido como «crawl budget») se refiere a las páginas y recursos que los bots rastrearán en tu sitio. 

Debido a que el tiempo de rastreo no es infinito, asegúrate de que hayas priorizado tus páginas más importantes para el rastreo. Aquí te compartimos algunos consejos para que maximices tu crawl budget: 

  • Remueve o integra páginas duplicadas. 
  • Arregla o redirige cualquier enlace roto. 
  • Asegúrate de que tus archivo CSS y Javascript sean rastreables. 
  • Revisa tus estadísticas de rastreo regularmente y vigila las bajas y aumentos repentinos.
  • Verifica que esté bloqueado cualquier bot o página que hayas prohibido para el rastreo. 
  • Mantén tu mapa de sitio actualizado y envíalo a las herramientas webmaster apropiadas. 
  • Elimina el contenido innecesario u obsoleto. 
  • Cuidado con las URL generadas dinámicamente, ya que pueden elevar demasiado el número de páginas de tu sitio.

3. Optimiza la arquitectura de tu sitio

Tu sitio web tiene múltiples páginas. Esas páginas deben estar organizadas para permitir que los motores de búsqueda puedan encontrarlas y rastrearlas fácilmente. Aquí es donde la estructura de tu sitio (también conocida como la arquitectura de información de tu sitio) se involucra. 

De la misma manera en que un edificio se construye a partir de un diseño arquitectónico, la arquitectura de tu sitio es la forma en que organizas sus páginas. 

Las páginas relacionadas se agrupan juntas. Por ejemplo, la página de inicio de tu blog vincula a publicaciones de blog individuales, que a su vez vinculan a las páginas de sus respectivos autores. Esta estructura permite que los bots de búsqueda comprendan la relación que hay entre ellas. 

La arquitectura de tu sitio también debería responder a la importancia de las páginas individuales. Cuanto más cerca esté la Página A de tu página de inicio, más páginas se vinculan a la Página A; y cuanta más cantidad de vínculos tengan esas páginas, mayor importancia le darán los bots a la Página A.  

Por ejemplo, un link de tu página de inicio a la Página A tiene más relevancia que un link de una publicación de blog. Cuantos más links haya hacia la Página A, más «relevante» se vuelve para los motores de búsqueda. 

A modo conceptual, la arquitectura de un sitio podría lucir como algo así, donde las páginas de Acerca de, Producto, Noticias, etc. están posicionadas hasta arriba de la jerarquía de relevancia de páginas. 

Asegúrate de que las páginas más importantes de tu negocio se encuentren hasta arriba con la mayor cantidad de links (relevantes) internos. 

4. Establece una estructura de URL

La estructura de URL se refiere a la manera en que estructuras tus URL, que podrían ser determinadas por la arquitectura de tu sitio. Explicaremos la conexión en un momento. Primero, aclaremos que las URL pueden tener subdirectorios, como blog.hubspot.com, y/o subcarpetas, como hubspot.com/blog, que indican a dónde lleva una URL. 

Por ejemplo, una publicación de blog titulada «Cómo cuidar a tu perro» podría caer en un subdominio de blog o subdirectorio. La URL podría ser www.tumejoramigo.com/blog/como-cuidar-a-tu-perro. Mientras que una página de producto en el mismo sitio sería www.tumejoramigo.com/productos/peine-antipulgas. 

Tu URL depende enteramente de ti, independientemente de que utilices subdominios o subdirectorios, o «productos» en lugar de «tienda». La belleza de crear tu propio sitio web es que puedes establecer las reglas. Lo que importa es que esas reglas sigan una estructura unificada, por lo que no deberías cambiar entre blog.tusitioweb.com y tusitioweb.com/blogs en distintas páginas. Haz un mapa, aplícalo a la estructura de nombre de tus URL y apégate a él. 

Estos son otros consejos sobre cómo escribir tus URL: 

  • Utiliza minúsculas. 
  • Utiliza guiones para separar palabras. 
  • Hazlos cortos y descriptivos. 
  • Evita usar caracteres o palabras innecesarios (incluyendo preposiciones). 
  • Incluye tus keywords objetivo. 

Una vez que tengas tu estructura de URL bien establecida, ingresarás una lista de los URL de tus páginas importantes a los motores de búsqueda en la forma de un mapa de sitio XML. Al hacerlo, le das a los bots de búsqueda un contexto adicional de tu sitio para que no estén adivinando mientras rastrean. 

5. Utiliza robots.txt

Cuando un robot de web rastrea tu sitio, primero revisará el /robot.txt, también conocido como el estándar de exclusión de robots (robot exclusion protocol, en inglés). Este estándar, o protocolo, permite o prohíbe a ciertos robots rastrear tu sitio, incluyendo secciones específicas o hasta páginas completas. Si quieres evitar que los bots indexen tu sitio, deberás usar una metaetiqueta de noindex robots. Hablemos de ambos escenarios.  

Quizá quieras bloquear ciertos bots para que no rastreen tu sitio en general. Desafortunadamente, existen algunos bots que tienen intenciones maliciosas, bots que dañarán tu contenido o inundarán de spam los foros de tu comunidad. Si notas este mal comportamiento, debes usar tu robot.txt para evitar que entren en tu sitio. En este escenario, piensa en robot.txt como un campo de fuerza para los bots malos de internet.

Sobre la indexación, los bots de búsqueda rastrean tu sitio para recolectar pistas y encontrar keywords para que tus páginas web coincidan con resultados relevantes de búsqueda. Pero, como lo mencionaremos más adelante, tienes un crawl budget que no deseas invertir en datos innecesarios. En ese caso, deberás excluir páginas que no ayudan a los bots de búsqueda a entender de qué se trata tu sitio web, por ejemplo una página de agradecimiento de una oferta o una página de ingreso.

Tu protocolo robot.txt será único, dependiendo de qué esperas que logre.

6. Añade menús de breadcrumbs

¿Recuerdas el cuento de «Hansel y Gretel», en el que dos niños dejan un rastro de migas de pan en el suelo para encontrar el camino de vuelta a casa? Pues fueron unos visionarios. 

Las migas de pan, o breadcrumbs, son exactamente lo que parecen: un rastro que lleva a los usuarios de regreso al inicio de su viaje en tu sitio web. Es un menú que le indica a los visitantes cómo se relaciona la página actual con el resto del sitio. 

Y no son únicamente para los que visitan el sitio: los bots de búsqueda las utilizan también.

Las migas de pan deberían ser dos cosas: 1) visibles para que los usuarios puedan navegar fácilmente en tus páginas sin utilizar el botón de «Atrás», y 2) tener un lenguaje de marcado estructurado para que den el contexto preciso a los bots de búsqueda que rastrean tu sitio.

7. Utiliza la paginación

¿Recuerdas cuando los maestros te pedían que numeraras las páginas de tus ensayos? A eso se le llama paginación. En el mundo del SEO técnico la paginación tiene un papel ligeramente distinto, pero puedes seguir asociándola con una manera de organizar. 

La paginación utiliza código para indicarle a los motores de búsqueda si las páginas con URL diferente están relacionadas entre ellas. Por ejemplo, puedes tener una serie de contenidos que separas en capítulos o en varias páginas web. Usa la paginación para que sea fácil que los bots de búsqueda descubran y rastreen estas páginas.

La forma en que funciona es bastante sencilla. Ve a donde dice <head> en la página uno de la serie y utiliza rel=»next»para indicarle al bot cuál página rastrear a continuación. Luego, en la página dos, usa rel=»prev» para indicar la página anterior y rel=»next» para la siguiente, y así.

8. Revisa tus archivos de registro de SEO

Piensa en los archivos de registro como en las entradas de un diario. Los servidores web (el escritor) anotan y almacenan los datos de registro, acerca de cada acción que llevan a cabo en tu sitio, dentro de los archivos de registro (el diario). Los datos recopilados incluyen el tiempo y fecha de la petición, el contenido requerido y la dirección IP que hizo la petición. También puedes reconocer el agente de usuario, que es un software exclusivamente identificable (como un bot de búsqueda, por ejemplo) que cumple la petición para un usuario.   

¿Pero qué tiene que ver esto con el SEO? 

Pues los bots de búsqueda dejan un rastro en forma de archivos de registro cuando rastrean tu sitio. Puedes determinar cuándo y qué fue rastreado al revisar los archivos de registro y al filtrar por el agente de usuario y motor de búsqueda. 

Esta información es útil para ti porque puedes establecer cómo se gasta tu crawl budget y cuáles barreras experimenta un bot al indexar o ingresar. Para tener acceso a tus archivos de registro puedes pedirle a un desarrollador que use un analizador de archivos de registro, como Screaming Frog

Solo porque un bot de búsqueda puede rastrear tu sitio no significa necesariamente que puede indexar todas tus páginas. Echemos un vistazo a la siguiente capa de tu auditoría de SEO técnico: indexabilidad.

Indexabilidad 

A medida que los bots de búsqueda rastrean tu sitio web, empiezan a indexar páginas basándose en sus temas y la relevancia a ese tema. Una vez que es indexada tu página es elegible a calificar en las páginas de resultados. Aquí hay algunos factores que pueden ayudar a que tus páginas sean indexadas.

Elementos de indexabilidad 

  1. Desbloquea los bots de búsqueda para que tengan acceso a las páginas.
  2. Elimina el contenido duplicado.
  3. Audita tus redirecciones. 
  4. Comprueba la responsiva móvil de tu sitio. 
  5. Arregla los errores HTTP. 

1. Desbloquea los bots de búsqueda para que tengan acceso a las páginas

Es probable que ya te ocupaste de este paso cuando mencionamos la capacidad de rastreo, pero vale la pena mencionarlo aquí. Debes garantizar que los bots sean enviados a tus páginas preferidas y que tengan libre acceso. Cuentas con algunas herramientas a tu disposición para lograrlo. El Probador de robots.txt de Google te dará una lista de páginas que no están permitidas, y puedes utilizar la herramienta de inspección de Google Search Console para determinar lo que bloquea las páginas.

2. Elimina el contenido duplicado

El contenido duplicado confunde a los bots de búsqueda e impacta de manera negativa tu indexabilidad. Recuerda utilizar URL canónicas para establecer tus páginas preferidas.

3. Audita tus redirecciones

Verifica que todas tus redirecciones están establecidas correctamente. Bucles de redirección, URL rotas o (peor aún) redirecciones inadecuadas pueden causar problemas cuando tu sitio es indexado. Para prevenirlo, audita todas tus redirecciones regularmente.

4. Comprueba la responsiva móvil de tu sitio

Si tu sitio web no es ya amigable para un dispositivo móvil estás más retrasado de lo necesario. Desde 2016, Google empezó a indexar primero a los sitios móviles, dándole prioridad a la experiencia en móvil que a la de escritorio. Hoy, ese indexado está disponible por defecto. Para estar al día con esta tendencia importante puedes usar la prueba de optimización para móviles de Google para revisar en qué partes es necesario mejorar tu sitio web.

5. Arregla los errores HTTP

HTTP son las siglas de HyperText Transfer Protocol (protocolo de transferencia de hipertexto), pero tal vez eso no te importa mucho. Lo que sí debe importante es cuando el HTTP regresa errores a tus usuarios o a los motores de búsqueda, y qué debes hacer para repararlos.

Los errores HTTP pueden impedir el trabajo de los bots de búsqueda al bloquearlos del contenido relevante de tu sitio. Por lo tanto, es muy importante abordar estos errores rápida y concienzudamente. 

Debido a que cada error HTTP es único y requiere una solución específica, la siguiente sección tiene una breve explicación de cada uno, y podrás usar los links para saber más de ellos y sus soluciones.

  • Redirecciones Permanentes 301: son utilizadas permanentemente para enviar tráfico de una URL a otra. Tu CMS te permitirá establecer estas redirecciones, pero si son demasiadas pueden alentar tu sitio y degradar la experiencia del usuario, ya que cada redirección adicional le suma tiempo de carga a una página. Apunta a tener ninguna cadena de redirecciones, si es posible, pues muchas provocan que los motores de búsqueda abandonen el rastreo de esa página.  
  • Redirección Temporal 302: es una manera de redirigir temporalmente el tráfico de una URL a una página web diferente. Aunque este código de estado enviará automáticamente a la nueva página, la etiqueta de título caché, la URL y la descripción se mantendrán consistentes con la URL de origen. Sin embargo, cuando la redirección temporal se mantiene el tiempo suficiente, será tratada eventualmente como una redirección permanente y esos elementos se pasarán a la URL de destino. 
  • Mensajes Prohibidos 403: significan que el contenido que pidió un usuario está restringido por permisos de acceso o por una configuración incorrecta del servidor.
  • Páginas de Error 404: indican a los usuarios que la página que han pedido no existe, ya sea porque ha sido eliminada o escribieron el URL equivocado. Siempre es una buena idea crear páginas 404 que están brandeadas y ayudan a crear engagement para que los visitantes se mantengan en tu sitio.
  • Método No Permitido 405: quiere decir que el servidor de tu sitio web reconoció, y aun así, bloqueó el método de acceso, lo que resulta en un mensaje de error.  
  • Error Interno del Servidor 500: es un mensaje de error general que significa que tu servidor web experimenta problemas al entregar tu sitio al tercero que lo solicita.
  • Puerta de Enlace Incorrecta 502: está relacionado con un error en la comunicación, o una respuesta inválida, entre los servidores de un sitio web. 
  • Servicio No Disponible 503: te indica que, aunque tu servidor funciona correctamente, no es capaz de cumplir con la petición. 
  • Tiempo de Espera de Gateway Superado 504: significa que un servidor no recibió a tiempo una respuesta de tu servidor web para tener acceso a la información que se le ha pedido

Cualquiera que sea la razón de estos errores, es importante que los atiendas para mantener felices a tus usuarios y a los motores de búsqueda. Con eso garantizarás que regresen a tu sitio. 

Incluso si tu sitio ha sido rastreado e indexado, los problemas de acceso que bloquean a usuarios y bots tendrán un impacto en tu SEO. Dicho esto, debemos avanzar a la siguiente etapa de tu auditoría de SEO técnico: renderizado. 

Renderizado

Antes de ahondar en este tema, es importante recalcar la diferencia entre la accesibilidad SEO y la accesibilidad web. La segunda se refiere a hacer tus páginas web fáciles de navegar para usuarios con discapacidades o impedimentos, como ceguera o dislexia por ejemplo. Muchos elementos de la accesibilidad en línea empatan con las mejores prácticas de SEO. Sin embargo, una auditoría de accesibilidad SEO no toma en cuenta todo lo que necesitarías para hacer tu sitio más amigable para los visitantes que son discapacitados.

En esta sección vamos a enfocarnos en la accesibilidad SEO, o renderizado, pero siempre ten presente la accesibilidad web a medida que desarrolles y le des mantenimiento a tu sitio.

Elementos de renderizado 

Un sitio accesible se basa en su facilidad de renderizado. A continuación están los elementos para sitios web que debes revisar para tu auditoría en este tema.

Desempeño del servidor 

Como ya has aprendido, los tiempos de espera y los errores de servidor causarán errores HTTP que impiden que usuarios y bots puedan tener acceso a tu sitio. Si adviertes que tu servidor experimenta problemas, usa los recursos que ya mencionamos para solucionarlos. Fallar en hacerlo oportunamente puede ocasionar que los motores de búsqueda eliminen tu página web de sus índices, ya que es una mala experiencia mostrar una página dañada al usuario.

Estado de HTTP 

Al igual que en el desempeño del servidor, los errores HTTP impedirán el acceso a tus páginas web. Puedes utilizar un rastreador web, como Screaming Frog, Botify o DeepCrawl, para que lleve a cabo una auditoría profunda de errores en tu sitio.

Tiempo de carga y tamaño de página 

Si tu página tarda mucho tiempo en cargarse, la tasa de rebote no será el único problema del que tendrás que preocuparte. Un retraso en el tiempo de carga puede llevar a un error del servidor que bloqueará a los bots de tus páginas web o los llevará a rastrear versiones parcialmente cargadas, a las que les faltan secciones importantes de contenido. Según la demanda de rastreo para un recurso dado, los bots invertirán una cantidad equivalente de recursos para intentar cargar, renderizar e indexar páginas. Sin embargo, deberías hacer todo lo que tengas a la mano para reducir el tiempo de carga de tu página.

Renderizado de JavaScript 

Google ha admitido que le es complicado procesar JavaScript (JS) y, por lo tanto, recomienda implementar contenido pre-renderizado para mejorar la accesibilidad. Google también tiene recursos para ayudarte a entender la forma en que los bots tienen acceso al JS de tu sitio y te ofrece consejos sobre cómo mejorar problemas relacionados con la búsqueda.

Páginas huérfanas 

Cada página en tu sitio debería estar vinculada por lo menos a una página más (es preferible que sean unas cuantas más, según la importancia que tenga tu página). Cuando una página no tiene links internos se le conoce como página huérfana. Como un artículo sin introducción, estas páginas no tienen el contexto que los bots necesitan para comprender cómo deberían ser indexadas.

Profundidad de página 

La profundidad de página se refiere a la cantidad de capas bajo las que se encuentra una página en la estructura de tu sitio, es decir, a cuántos clics de tu página de inicio se ubica. Es mejor cuidar que la arquitectura de tu sitio sea tan superficial como sea posible, mientras mantenga una jerarquía intuitiva. A veces, un sitio con múltiples capas es inevitable; en ese caso, prioriza un sitio bien organizado sobre la superficialidad.

Sin importar cuántas capas tenga la estructura de tu sitio, mantén las páginas importantes (como las de producto y contacto) a no más de 3 clics de distancia. Una estructura que entierra tu página de producto tan profundo en el sitio (que los usuarios y los bots deben hacerle al detective para encontrarla) es menos accesible y provee una experiencia bastante pobre.

Por ejemplo, una URL como esta (que guía a tu audiencia objetivo a la página de tu producto) es un ejemplo de una estructura de sitio mal planeada: www.tusitioweb.com/caracteristicas-de-productos/caracteristicas-por-industria/estudios-de-caso-aerolineas/productos-de-aerolineas.

Cadenas de redirección 

Pagas un precio cuando decides redirigir el tráfico de una página a otra. Ese precio es la eficiencia de rastreo. Las redirecciones pueden frenar el rastreo, reducir el tiempo de carga de página y hacer tu sitio inaccesible para aquellas redirecciones que no están establecidas correctamente. Por todas estas razones, intenta mantener las redirecciones al mínimo.

Una vez que hayas atendido los problemas de accesibilidad, puedes avanzar a la manera en que tus páginas califican en los SERP.

Elementos de rankeo 

Ahora llegamos a los elementos más actuales que probablemente ya tienes en la mira: cómo mejorar el ranking desde un punto de vista de SEO técnico. Lograr que tus páginas califiquen involucra algunos de los elementos on page y off page que ya mencionamos, pero desde una lente técnica.

Recuerda que todos estos elementos trabajan juntos para crear un sitio SEO amigable. Por lo tanto, seríamos negligentes si dejamos fuera algunos factores que contribuyen a lograrlo. Ahondemos en ellos.

Enlaces internos y externos 

Los enlaces ayudan a los bots de búsqueda a comprender en dónde se encuentra una página dentro del gran esquema de una búsqueda y dan contexto para calificar esa página. Los links guían a los bots de búsqueda (y a los usuarios) hacia contenido relacionado y transfieren la importancia de una página. Sobre todo, vincular con enlaces mejora el rastreo, la indexación y tu posibilidad de ser rankeado.

Calidad de backlinks 

Los backlinks (links de otros sitios que llevan al tuyo) dan un voto de confianza a tu sitio. Les indican a los bots de búsqueda que el Sitio Externo A piensa que tu página es de alta calidad y merece ser rastreada. Si estos votos se van sumando, los bots se dan cuenta y ven a tu sitio con mayor credibilidad.  Sin embargo, como sucede con las cosas geniales, hay una advertencia. La calidad de esos backlinks importa, y mucho.

Los enlaces de sitios de baja calidad pueden dañar tus rankings. Existen muchas maneras de obtener backlinks de calidad a tu sitio, como contactar publicaciones relevantes, reclamar menciones sin enlace y proveer de contenido útil que otros sitios quieren vincular.

Grupos de contenido 

En HubSpot no hemos sido tímidos acerca de nuestro amor por los de grupos de contenido o sobre cómo contribuyen al crecimiento orgánico. Los grupos de contenido enlazan contenido relacionado para que los bots de búsqueda puedan encontrar, rastrear e indexar fácilmente todas las páginas que tienes sobre un tema en particular. Funcionan como una herramienta de autopromoción que muestra a los motores de búsqueda lo mucho que sabes de un tema. Así es más probable que califiquen a tu sitio como una autoridad para cualquier búsqueda relacionada.

Tu capacidad de ranking es el determinante principal en el crecimiento de tráfico orgánico. Estudios muestran que los buscadores son más propensos a darle clic a los primeros tres resultados de búsqueda en los SERP. Pero ¿cómo aseguras que el tuyo sea el resultado que obtiene un clic?

Hablemos de esto con la pieza final de la pirámide el tráfico orgánico: clicabilidad.

Clicabilidad 

Aunque el porcentaje de clics (CTR, por sus siglas en inglés) tiene todo que ver con el comportamiento del buscador, hay cosas que puedes hacer para mejorar tu clicabilidad en los SERP. Debido a que las metadescripciones y los títulos de página con keywords sí impactan en el CTR, vamos a enfocarnos en los elementos técnicos, porque es la razón de que estés aquí.

Elementos de clicabilidad 

  1. Utiliza datos estructurados. 
  2. Gana funcionalidades SERP. 
  3. Optimiza los snippet destacados. 
  4. Considera Google Discover. 

La tasa de ranking y de CTR van mano a mano porque, seamos honestos, los buscadores quieren respuestas inmediatas. Cuanto más destaque tu resultado en los SERP, es más probable que recibirás el clic. Revisemos algunas formas de mejorar tu clicabilidad. 

1. Utiliza datos estructurados

Los datos estructurados emplean un vocabulario específico, llamado schema, con el fin de categorizar y etiquetar elementos en tu página web para los bots de búsqueda. El schema hace evidente cuál es cada elemento, cómo se relaciona con tu sitio y cómo se interpreta. Básicamente, los datos estructurados le dicen a los bots «Esto es un video», «Esto es un producto» o «Esto es una receta», sin dejar espacio a la interpretación.

Para ser claros, utilizar datos estructurados no es un «factor de clicabilidad» (si es que existe algo así), pero ayuda a organizar tu contenido de tal manera que le facilita a los bots de búsqueda entender, indexar y potencialmente calificar tus páginas.

2. Gana funcionalidades SERP

Las funcionalidades SERP, también conocidas como resultados enriquecidos, son una espada de doble filo. Si los ganas y obtienes el clic, entonces todo está perfecto. De lo contrario, tus resultados orgánicos son empujados detrás de los anuncios auspiciados, cajas de respuestas de texto, carruseles de video y otros parecidos.

Los resultados enriquecidos son aquellos elementos que no siguen el título de la página, URL, metadescripción de otros resultados de búsqueda. Por ejemplo, la imagen a continuación muestra dos funcionalidades SERP (un video carrusel y una caja de «Preguntas Relacionadas») arriba del primer resultado orgánico.

Aunque de todas formas puedes obtener clics al aparecer en la punta de los resultados orgánicos, tus probabilidades pueden mejorar con resultados enriquecidos.

¿Cómo aumentas las probabilidades de ganar resultados enriquecidos? Escribe contenido útil y usa datos estructurados. Cuanto más fácil sea que los bots de búsqueda comprendan los elementos de tu sitio, mejores probabilidades tendrás de obtener un resultado enriquecido.

Los datos estructurados son útiles para lograr que estos elementos (y otros de la galería de búsqueda) de tu sitio aparezcan en la punta de los SERP, aumentando así las posibilidades de un clic:

  • Artículos
  • Videos
  • Reseñas
  • Eventos
  • Tutoriales
  • FAQ («Preguntas frecuentes»)
  • Imágenes
  • Listados de negocios locales 
  • Productos
  • Enlaces de sitio

3. Optimiza los snippets destacados

Una función unicornio de los SERP que no tiene nada que ver con el schema markup es Snippets Destacados; esas cajas que están arriba de los resultados de búsqueda y dan respuestas concisas a consultas de búsqueda.

Los Snippets Destacados tienen la intención de obtener respuestas para los buscadores, tan rápido como sea posible. Según Google, dar la mejor respuesta a una duda es la única forma de ganar un snippet.

4. Considera usar Google Discover

Google Discover es un algoritmo de listado de contenido por categoría relativamente nuevo, específico para usuarios de móvil. No es un secreto que Google ha estado concentrado en la experiencia móvil; tampoco es una sorpresa que más del 50% de búsquedas vienen de dispositivos móviles. La herramienta permite a los usuarios construir una librería de contenidos al seleccionar categorías de interés (jardinería, música o política).

En HubSpot pensamos que el agrupamiento de temas puede aumentar la probabilidad de la inclusión de Google Discover y monitoreamos de manera activa nuestro tráfico de Google Discover en la Google Search Console para determinar la validez de nuestra hipótesis. Recomendamos que también inviertas algo de tiempo en esta nueva función. La recompensa es una base de usuarios altamente involucrada que ha seleccionado básicamente, uno por uno, el contenido en el que tanto has trabajado para crear.

El SEO técnico, el SEO on page y el SEO off page trabajan juntos para abrirle la puerta al tráfico orgánico. Aunque las técnicas on page y off page son las que comúnmente se implementan primero, el SEO técnico juega un rol crucial para posicionar tu sitio en la punta de los resultados de búsqueda y tu contenido enfrente de tu audiencia ideal. Usa estas tácticas técnicas para completar tu estrategia SEO y observa cómo se despliegan los resultados.

Escrito por: María Eugenia Coppola

Link: https://n9.cl/z0o4