¿Qué es SEO técnico y cómo implementarlo en mi sitio web?Tiempo de lectura: 8 min

SEO Técnico | Aprende qué es y cómo implementarlo

El SEO constituye para todos los sitios web una actividad tan elemental como intrincada, así las técnicas aplicables a cada uno pueden variar según decenas de parámetros. No obstante, es importante antes de comenzar a adentrarse en este particular mundo, conocer a detalle cada uno de los aspectos que lo componen.

Como verás a lo largo de este artículo, las bases técnicas del SEO On Page están claramente definidas en torno a una serie de ítems a tomar en cuenta. Para realizar una buena campaña de optimización para motores de búsqueda es importante comprender específicamente a qué refiere cada uno de ellos

SEO Técnico | La base de toda estrategia SEO

Podemos encontrar incontables definiciones respecto a qué es el SEO técnico. En síntesis, que el SEO consiste en determinar, ubicar y llevar a cabo todas aquellas acciones que sean posibles y necesarias para optimizar la salud del sitio web, de forma que comulguen con las instrucciones impartidas por Google a tal fin.

Tal es así que podemos encontrar muchos aspectos que se perfilan hacia este objetivo. En este artículo, haremos énfasis en los once fundamentales.

Protocolo HTTPS

Este es el primero de los requisitos exigidos por los motores de búsqueda con el fin de garantizar al usuario una navegación segura. Por sus siglas, su significado se traduce al español como “protocolo de transferencia de hipertexto seguro”. Se diferencia del antiguo protocolo HTTP, como podemos ver, justamente por la seguridad.

Básicamente lo que hace es garantizar una conexión segura entre el cliente y el servidor, basándose en la encriptación de datos SSL, la cual se encarga de cifrar todos los datos transmitidos de un punto al otro de la comunicación. Básicamente podemos decir que si esa comunicación no está cifrada, cualquier persona podría literalmente “ver” qué es lo que se está diciendo (incluyendo datos sensibles, tales como contraseñas, por ejemplo).

A los efectos del posicionamiento web, el protocolo HTTPS constituye un parámetro a tomar en cuenta. En comparación a otros, es un poco más débil, pero no deja de serlo.

Velocidad del sitio

Nadie desea esperar, nunca, por nada. Es por ello que desde la perspectiva de Google, el hecho de que los sitios web puedan garantizar una navegación veloz, es un factor importante de posicionamiento.

Al respecto podemos decir, por poner un ejemplo práctico, que por cada segundo adicional de espera (pasados los dos segundos y medio), las posibilidades de lograr conversiones, disminuyen hasta un 20%. En este punto es importante destacar que hay dos parámetros para analizar este ítem. Por un lado encontramos las Web Core Vitals, los parámetros de rendimiento de sitios web establecidos por Google, y por otro, tres factores inherentes al sitio:

  • Tiempo hasta el primer byte: que es lo que tarda el servidor en responder a la primera solicitud de información.
  • Tiempo total de descarga de la página: la demora total de descarga de todos los archivos necesarios para su completa utilización.
  • Tiempo de procesamiento completo: también llamado full render time, es el tiempo de descarga de archivos, sumado al tiempo que tardan en procesarse y cargarse, para posteriormente poder mostrarse de manera visual.

Archivos robots.txt y sitemap.xml

El sitemap, desde su implementación práctica, viene a ser una lista oculta de todas las URLs incluidas en la página.

Para poder procesar toda la información existente en los sitios web, google envía lo que se conoce como “crawlers” a analizar los sitios web listos para indexarse. Precisamente, estos crawlers (también llamados comúnmente como arañas), acceden a este archivo para ver todas las URLs que debe analizar, entra a ellas, y comienza a deslizarse a través de los enlaces.

Al momento de iniciar un trabajo en nuestra agencia de seo de un sitio nuevo, es imperativo iniciar sesión en Google Search Console y comprobar que el sitemap del sitio esté enviado e indexado.

Por su parte, el robots.txt es un archivo que se almacena en la raíz del directorio de sitios. Su función es indicar a los motores de búsqueda cuáles son las páginas que se deben rastrear para posteriormente indexar, y cuáles no. Un detalle importante para destacar aquí es que, al ingresar una URL al robots.txt e indicar que no debe indexarse, automáticamente la quitaría del índice de Google, mas no la eliminaría de este.

URLs y Redireccionamientos

Un dato sumamente importante a tener en cuenta respecto a las URLs son las partes que las componen. Respecto al posicionamiento SEO, son una cuestión fundamental. Cada URL, en su caso de extensión máxima, está compuesta por cinco partes, las cuales explicaremos con el siguiente ejemplo.

Tomaremos por caso una web ficticia: https://pagina.webgenial.com/seo

En este caso encontramos como primer componente al protocolo “https”. Posteriormente aparece el subdominio llamado “página”. Seguido a él está el dominio de la web “webgenial”. En anteúltimo lugar encontramos al TDL (top level domain, o dominio de nivel superior), es decir el “.com”. Y finalmente encontramos el slug en última posición, en este caso “seo”.

Cabe destacar que los motores de búsqueda consideran a los subdominios como entidades separadas del sitio web principal. Es por ello que la autoridad de dominio, en ambos casos, se calcula de manera independiente.

Otro aspecto a tener en cuenta para el posicionamiento SEO son las redirecciones. Una redirección,es una instrucción que se le da a los navegadores y a los motores de búsqueda para indicar que una página equis se movió hacia una nueva dirección. Existen varios tipos de redirecciones, pero a los efectos del SEO, solo nos importarán dos:

  • La redirección 301: para indicarle al navegador (o al servidor) que la página se movió permanentemente.
  • La redirección 302: para indicar que ocurrió lo propio, pero de manera temporal. Estas redirecciones sólo se emplean en situaciones especiales, como es el caso del mantenimiento de las páginas.

Contenido duplicado y etiqueta canonical

¿Recuerdas cuando mencionamos esa ambigüedad establecida entre las directrices y el consenso? Este caso es el mejor ejemplo de ello. A diferencia de lo que se cree (el consenso), Google no penaliza el contenido duplicado, sino que, por el contrario, premia al contenido único y original. Desde luego, no nos referimos al plagio entre sitios web, sino al contenido duplicado entre páginas de un mismo sitio.

Pongamos un ejemplo clásico. Existen cuatro formas de ingresar a un sitio:

Google siempre leerá a cada URL como una página diferente, por lo cual, si no se lo indicamos previamente, no sabrá cómo el propietario del sitio quiere que se ingrese a ella. En efecto, esta situación se pondrá peor si ocurre con cada página que componga al sitio web.

Para solventar esto, existen dos soluciones:

  1. Establecer una redirección 301 del lado del servidor que establezca una de esas URLs como la versión “oficial” de la página.
  2. Utilizar la etiqueta “rel = canonical”, insertándola en el head del sitio.

Códigos de estado del sitio

Todas las páginas que componen a los sitios web, siempre devuelven un código de estado al navegador, o a la araña enviada por Google que lo solicite. Son importantes en el SEO puesto que cada uno de los tipos de códigos aportará información sobre el estado de la página en cuestión. Los tipos de códigos más comunes son los siguientes:

  • 200: es el que indica que todo está bien
  • 301: este código es el que se indica cuando la página se movió permanentemente a otra dirección
  • 302: en este caso la situación es igual que el 301, salvo porque la redirección es de manera temporal
  • 404: cuando la página no existe en el sitio
  • 500: cuando se produce un error de servidor
  • 503: cuando la página no está disponible temporalmente

Auditoría técnica de SEO

Encontramos aquí ciertas herramientas, las más comunes del mundo del SEO, que sirven para llevar adelante las auditorías necesarias para medir el estado en que el sitio web se encuentra. Algunas pueden variar entre ellas, pero casi todos los elementos expuestos en sus resultados están relacionados con los puntos que mencionamos anteriormente.

Las herramientas más utilizadas para auditar SEO son:

  • El inspector de elementos del navegador
  • Mozbar
  • Screaming Frog
  • Page Speed Insights
  • Ahrefs
  • Semrush

Llevar adelante una buena campaña de SEO en tu sitio web, es garantía de éxito para tu sitio de forma orgánica, de modo tal que éste conseguirá posicionarse en los primeros lugares de los motores de búsqueda más utilizados. Sin lugar a dudas, aprender a optimizar una página web tomando en consideración cada uno de los aspectos mencionados, puede parecer una tarea titánica al principio. 

No obstante, no hay que desesperar. Todo es cuestión de comenzar aprendiendo los conceptos teóricos para posteriormente pasar al campo práctico.