Anteriormente, en el episodio número 4 del podcast SEO Bites, desarrollamos un glosario de términos SEO con la definición de conceptos básicos o fundamentales que debes conocer para desarrollar la estrategia de posicionamiento de tu sitio web en los motores de búsqueda. En esta segunda parte del glosario, abordamos conceptos de un nivel más avanzado que te ayudarán a convertirte en un crack del SEO.
En este diccionario, nuestros expertos Blas Giffuni y Camilo Ramírez, definen y explican de un forma muy práctica aquellas palabras que hacen parte de la jerga del SEO y te permitirá aprender sobre conceptos que te serán de utilidad para el buen posicionamiento de tu sitio web.
¡Aquí vamos!
Tabla de contenidos
- Crawler, rastreador o araña
- Robots.txt
- Metadata
- Data estructurada
- Sitemap
- Core web vitals
- Google Search Console
- Java Script
Crawler, rastreador o araña
El crawler, también conocido como rastreador o araña, es un software o bot que busca datos en Internet, analiza el contenido y proporciona información para mejorar el rendimiento de los motores de búsqueda.
Básicamente, es la forma como los motores de búsqueda revisan los sitios web, recopilando información de cómo están compuestos y estructurados los contenidos de una URL para enviársela al buscador y que este pueda realizar el proceso de indexación.
¿Qué componentes analiza el crawler o araña en un sitio web?
- URL o enlaces.
- El contenido textual (palabras claves o keywords, corpus, estructura de la información, etc).
- Etiquetas HTML.
- Imágenes y/o videos.
Robots.txt
Cuando creas un nuevo sitio web es importante que Google o cualquier otro motor de búsqueda pueda acceder a él para rastrear la información e indexarla.
En este caso, para informarle a los motores de búsqueda que pueden acceder a tu web debes crear un archivo de texto con la extensión .txt, en el cual especificamos qué partes de nuestra web queremos que sean rastreadas e indexadas por el motor de búsqueda y, así mismo, cuáles no queremos que aparezcan en las páginas de resultados de los buscadores.
El robots.txt es fundamental para la indexación de un sitio web. Por tanto, debemos programarlo correctamente, ya que puede ocurrir que accidentalmente se categorizan como no indexables partes del sitio web que sí deberían ser rastreadas.
Metadata
La metadata se puede definir como “datos acerca de los datos” y esta, cuenta de una manera estructurada y sencilla, qué es y de qué se trata la data de un website. Básicamente, la metadata es la forma cómo describimos la información que está detrás de otra data.
Los metadatos son elementos HTML cuya función es describir el sitio web que los contiene. Su objetivo es el de brindarle información a los motores de búsqueda acerca de qué tipo de contenido se ofrece y cuál es la temática que se aborda.
Por ejemplo, en el caso de una página dentro de un sitio web lo más común es tener:
- Meta título: es el título en el que se hace clic cuando una página aparece en los resultados del motor de búsqueda.
- Meta descripción: es una etiqueta HTML utilizada para describir brevemente los contenidos que se ofrecen en una página web. Esta información aparece en negro, debajo del meta título y la URL en los resultados del motor de búsqueda. Se recomienda que tenga una extensión de entre 140 y 160 caracteres.
- Los videos, imágenes y enlaces también contienen metadata.
Data estructurada
Los datos estructurados son etiquetas estandarizadas que brindan a los motores de búsqueda información extra acerca de los contenidos de un sitio web para facilitarles su trabajo.
También ayudan a generar una mejor experiencia de usuario, por medio de la construcción de snippets enriquecidos o rich snippets, en los cuales se muestra la información de forma más atractiva y precisa en las páginas de resultados.
En resumen, los datos estructurados presentan a los motores de búsqueda data sobre aquello que se ofrece en una web de una forma funcional, siguiendo unos estándares comunes. Al organizar así los datos, los crawlers la identifican más fácilmente y ya saben qué hacer y cómo trabajar con esa información.
La estructura de los datos que es más comúnmente usada es establecida por Schema, una comunidad colaborativa que desarrolla esquemas para datos estructurados en internet. La estructuración de la data varía si se ofrecen productos, servicios u otros.
Sitemap
Un sitemap es el mapa de tu sitio web y es la forma en qué le informamos a los motores de búsqueda qué contenidos hay en él.
¿Cuál es la diferencia entre sitemap.html y sitemap.xml?
- Sitemap.html: un documento que un humano puede leer y puede navegar desde el sitio web.
- Sitemap.xml: un documento cuya estructura está en xml, donde se dice cuál es la ubicación del URL, cuál es su prioridad o importancia dentro del dominio, cuándo fue la última vez que fue modificado y su ubicación.
Core web vitals
Las core web vitals son una serie de métricas que Google analiza para calificar la experiencia del usuario al navegar un sitio web y las cuales son tenidas en cuenta para definir el posicionamiento de dicho website.
Fueron anunciadas por Google en 2020 y con ellas se comprueba una vez más que para Google, la experiencia del usuario es una prioridad, más allá de los algoritmos.
Específicamente se analizan tres aspectos que pueden tener un alto impacto en la experiencia del usuario. Estos son:
- Tiempo de carga: se puede medir con una métrica conocida como LCP (procesamiento de imagen con contenido más grande), la cual se encarga de medir la percepción de la velocidad de carga.
- Interactividad: una métrica útil para medirlo es el FID (retraso de primera entrada).
- Estabilidad visual: se mide con la métrica CLS (cambio de diseño acumulado) que se refiere a la cantidad de cambios inesperados en el diseño del contenido visible
Lo que Google nos está queriendo decir con esto es:
- “No me gusta un website que se demore mucho en cargar”.
- “Tampoco me gusta que cuando un website esté cargado el usuario no pueda interactuar fácilmente ni rápido en él”.
- “No me gusta que cuando el website cargue se modifique la diagramación o el layout de la página”.
Google Search Console
De acuerdo con Google, el Search Console es “un servicio gratuito que ayuda a supervisar, mantener y solucionar los problemas de aparición de tu sitio web en los resultados de la búsqueda de Google”.
Por tanto, es la herramienta que utiliza Google para comunicarle a los dueños y/o administradores de sitios web cuál es el diagnóstico de sus websites.
Por este medio, se le notifica a los web masters acerca de los errores presentes en un sitio, cuál es el posicionamiento, cuál es el click through rate, entre otras métricas. Esta herramienta es muy importante porque provee información directa por parte de Google.
Java Script
Java Script es un lenguaje de programación muy utilizado en el desarrollo de los websites y que funciona para diferentes plataformas. Este lenguaje ayuda a que el sitio web sea más interactivo y dinámico.
Sin embargo, es conocido como el coco del SEO, porque una mala implementación de Java Script puede hacer que el motor de búsqueda no encuentre nada del contenido de nuestro website.
Aun así, puede ser realmente una herramienta muy fuerte que, bien utilizada, aumenta los niveles de conversión dentro de nuestra web.
—
Hasta aquí llega la segunda parte de nuestro glosario o diccionario de términos SEO. ¡Te invitamos a escuchar nuestro podcast SEO Bites, el audio snack perfecto para conocer más acerca del posicionamiento en motores de búsqueda!
Bibliografía
https://es.modyo.com/blog/datos-estructurados-en-google-que-son-y-como-mejoran-el-seo
https://es.modyo.com/blog/datos-estructurados-en-google-que-son-y-como-mejoran-el-seo