
¿Que es SEO?
Después de crear el SITIO de sus sueños, 9 de cada 10 personas hacen la misma pregunta: Y ahora, ¿cómo hago para que las personas accedan a mi sitio?
Bueno, esta sería la «respuesta del millón» a través de varios frentes: popularidad de marca, redes sociales, enlaces patrocinados, campañas, SEO, etc. También podemos decir que trabajar juntos muestra mucho más. eficiente que cuando se trata de forma aislada. Sin embargo, en este artículo nos centraremos en solo uno de ellos, SEO.
El acrónimo SEO para Search Engine Optimization, o traducido al portugués – Search Engine Optimization, se basa en la aplicación de diversas técnicas / estrategias en sitios web para obtener una mejor clasificación en motores de búsqueda como Google, Bing, Yahoo, UOL, entre otros.
Este conjunto de técnicas / estrategias se puede dividir en dos frentes: factores en página y factores fuera de página (o construcción de enlaces). Cada día circulan millones de «robots» en todos los sitios de Internet, definirán su posición de búsqueda. Ahora comprendamos algunos de estos parámetros:
Los factores en la página se caracterizan por técnicas que alteran o mejoran los aspectos internos del sitio. Entre ellos podemos enumerar:
Atributo Alt en imágenes
Dominio
Títulos de la página
Metaetiquetas, especialmente Meta Descripción
Etiquetas de encabezado
URL de archivo
Contenido
Entre otros.
En cuanto a los factores fuera de la página (construcción de enlaces) que están «configurados» fuera de la página, podemos enumerar:
Enlaces externos Texto de anclaje
Número de enlaces externos
Calidad de enlaces externos.
Es de destacar que, si bien los elementos mencionados anteriormente son primordiales en cualquier estrategia de optimización de SEO, hay cientos de otros factores que se tienen en cuenta para la ubicación de un sitio web. Solo Google utiliza más de 200 factores, y de vez en cuando realiza actualizaciones para mejorar la entrega de contenido a los usuarios. Vea a continuación algunas de estas actualizaciones y sus impactos:
Florida (2003)
Florida fue la primera actualización importante de Google y se considera la actualización que puso el SEO en el mapa.
Cuando se lanzó, eliminó entre el 50 y el 98% de los sitios enumerados anteriormente. El objetivo eran sitios de baja calidad (en su mayoría afiliados) que practicaban el relleno de palabras clave, con dominios que contenían palabras clave exactas y una red de enlaces que apuntaban a la página de inicio del sitio.
Panda (2011)
Panda fue una actualización importante que afectó a casi el 12% de los resultados de búsqueda. El objetivo era penalizar los sitios con contenido de baja calidad explotando muchos anuncios y sitios presentes en granjas de contenido. Desde entonces, sus actualizaciones siempre se han centrado en la calidad del contenido del sitio web.
Después de 27 actualizaciones que afectaron los resultados de búsqueda, recibió la última en 2015. Panda 4.2 fue solo una actualización de la base de datos, pero terminó afectando a muchos sitios web que aún producían contenido de muy baja calidad.
Pingüino (2012)
También conocida en ese momento como Actualización de Webspam, Penguin fue la actualización responsable de contener el exceso de optimizaciones de contenido. En su lanzamiento, impactó aproximadamente el 3.1% de los resultados de búsqueda en inglés.
Su objetivo es identificar y penalizar sitios que practican el relleno de palabras clave y participan en esquemas para generar enlaces (técnicas consideradas sombrero negro).
Al igual que Panda, esta actualización del algoritmo pasó por una serie de mejoras y lanzamientos, hasta que llegó a la versión 4.0 (2016), cuando fue oficialmente parte del algoritmo de Google y comenzó a funcionar en tiempo real.
Colibrí (2013)
A diferencia de sus amigos anteriores, la actualización de Hummingbird no solo fue un complemento del algoritmo de Google, sino que fue una revisión completa del mismo.
Con la actualización, los resultados de búsqueda para los usuarios van mucho más allá de la palabra clave: el buscador considera no solo los términos de búsqueda, sino también todo su universo semántico, así como el significado de esa búsqueda, incluidos los sinónimos y el contexto en el que se buscan. los términos están incrustados en las páginas y también otros factores más complejos, como la ubicación del usuario e incluso las búsquedas anteriores realizadas por ellos.
Todo esto se hace para que los resultados que se muestran estén cada vez más relacionados con la intención de búsqueda real del usuario, no solo con las palabras de su búsqueda.
Actualización HTTPS / SSL (2014)
Después de advertir y alentar enormemente a los webmasters a invertir en seguridad, en 2014 Google anunció que HTTPS se estaba convirtiendo en un factor de clasificación, una forma de alentar la migración de la comunidad en línea y, por lo tanto, hacer que la web sea más segura.
Esto se debe a que los sitios que tienen certificados SSL (y, por lo tanto, migran a HTTPS) usan información cifrada, lo que evita que los datos se identifiquen a mitad de camino si se interceptan.
Actualización amigable para dispositivos móviles – Mobilegeddon (2015)
La actualización móvil de Google se hizo conocida como Mobilegeddon (referencia a la película Armageddon) por el impacto que los expertos creían que tendría. En la práctica, sin embargo, el impacto no fue tan grande.
En resumen, la actualización comenzó a priorizar los sitios compatibles con los motores de búsqueda para búsquedas móviles, independientemente de si el sitio era más o menos amigable para dispositivos móviles: o no.
En 2016, Google lanzó una nueva actualización amigable para dispositivos móviles, que tuvo un impacto de clasificación más bajo que el primero, según los webmasters (la razón principal es que la mayoría de los sitios ya estaban adaptados).
Rankbrain (2015)
En 2015, Google anunció que un sistema que utilizaba el aprendizaje automático y la inteligencia artificial se incorporó oficialmente a su algoritmo para ayudar en la interpretación y presentación de los resultados de búsqueda: Rankbrain.
Según el propio Google, el sistema se ha convertido en uno de los 3 principales factores de clasificación, junto con los enlaces y el contenido. Pero a diferencia de los otros 2 factores, fue más difícil optimizar su sitio para esta inteligencia. Lo que se podía hacer era explorar las palabras que formaban parte de la semántica del contenido y aclarar todo el contexto de su contenido.
Fred (2017)
La actualización Fred fue lanzada para identificar sitios con contenido de baja calidad y muchos banners publicitarios.
Según John Mueller, analista de tendencias para webmasters de Google en ese momento, «si sigue buenas prácticas de SEO, la única razón para penalizar su sitio es la mala calidad del contenido».