Huffpost Spain
BLOG

Los artículos más recientes y el análisis de la actualidad a través de las firmas de El HuffPost

Álex Navarro Headshot

El miedo a los cambios de algoritmo de Google

Publicado: Actualizado:
Imprimir

Matt Cutts, director del departamento contra Spam de Google, anunciaba el 20 de mayo en su Twitter una nueva actualización de su algoritmo de búsqueda, bautizado como Panda 4.0.

Aunque el movimiento de muchas páginas, sobre todo de habla inglesa, ya presagiaba que algo estaba cambiando en Google, esta es la fecha en la que se hizo el lanzamiento oficial a nivel internacional de lo que parece ser un nuevo paso en la lucha contra el Spam, un trabajo que se inició hace ya más de tres años.

Lo cierto es que para Google cada vez es más importante convertirse en un motor de información eficiente, orientado a ofrecer contenido relevante para el usuario para mejorar su experiencia de uso. Con este objetivo en mente son tres los algoritmos con los que el buscador trabaja, todos ellos con nombres de animales: Panda, Pingüino y Colibrí.

Aunque sólo los dos primeros afectan realmente al posicionamiento orgánico (SEO) de la página, todos ellos tratan de adaptar los resultados mostrados a las verdaderas necesidades de los internautas.

¿Cómo trabajan los algoritmos de Google?

Cada uno de los algoritmos antes citados trabaja sobre las diferentes áreas que permiten mejorar la experiencia de búsqueda. Pese a que el objetivo es común, el área de trabajo de cada uno es muy diferente y conviene tenerlos en cuenta a la hora de organizar nuestra estrategia para posicionar una web.

Colibrí

El más reciente de todos, puesto que apareció en agosto del pasado año, pensado para que Google no sólo sea un buscador sino también un motor de conocimiento, según palabras de Johanna Wright, Product Manager en Google.

No afecta directamente al posicionamiento, sino que realiza un trabajo de información relacionada para ofrecer a los usuarios más información sobre sus búsquedas.

Pingüino

Este algoritmo, lanzado por primera vez el 24 de abril de 2012, atacaba directamente a la calidad de los enlaces externos a una página. Hasta ese momento, muchas eras las páginas que habían orientado su estrategia de linkbuilding hacia enlaces, comprados o no, en directorios u otros sites con poco valor.

Este algoritmo premia aquellas webs que han conseguido tejer una red de enlaces de manera pasiva, más natural, y con variedad de anchor. Según las últimas informaciones parece que en las próximas semanas también saldrá una nueva actualización de este algoritmo, el Pingüino 3.0.

Panda

El cambio de algoritmo de Panda, fué el primero de todos ellos y trabaja para conseguir contenido de calidad relevante para los usuarios. Este algoritmo apareció por primera vez el 23 de febrero de 2011, y desde entonces se ha encargado de penalizar los sitios web con textos considerados malos o poco relevantes.

En este sentido, Google considera que un texto es de baja calidad bien porque su contenido es escaso, duplicado o mal redactado. En definitiva, los textos tienen que aportar algo novedoso y relevante a la temática general de la página.

Las claves del Panda 4.0

No es la primera vez que el algoritmo Panda nos visita, y esta nueva actualización es sólo un paso más para ofrecer contenido de calidad. En concreto, Panda 4.0 está orientado a eliminar de los primeros puestos de búsqueda aquellos textos poco relevantes, penalizando las webs que no ofrezcan información valiosa para el usuario.

Además de deshacerse de este tipo de textos, los nuevos algoritmos incluyen la comprobación de otras técnicas conocidas como Black Hat en SEO, como el control de palabras clave con altos ingresos, las granjas de enlaces o el exceso de publicidad en una web.

¿Por qué? Pues porque Google es el buscador más utilizado a nivel mundial, y quiere seguir siéndolo, por lo que la lucha contra el Spam es una de sus máximas prioridades.

En concreto, podemos hablar de cinco claves imprescindibles para, no sólo sobrevivir a la actualización del Panda, sino para aprovecharnos de ella y conseguir escalar posiciones, un punto básico en el caso de las tiendas online, donde aparecer en los primeros puestos es clave para aumentar las visitas:

1. Contenido de baja calidad: como ya hemos indicado, este punto es la piedra angular no sólo de la actualización, sino del algoritmo en sí mismo. Si queremos que nuestro texto se considere relevante debe tener una buena extensión.

En este sentido, podrán verse afectadas en mayor medida las tiendas online, y no tanto otras webs como blogs de información, ya que las primeras tienden a detallar brevemente sus productos, confiando en que las imágenes convencerán al cliente.

Es cierto que, dependiendo del sector al que se oriente nuestra tienda, este punto será más o menos fácil, pero debemos tratar de pensar siempre en el cliente y ofrecerle una descripción original, que resuelva sus dudas. Por ejemplo, las fichas de producto de fitoterapia y productos naturales en Lamberts cuentan con numerosas trabas en su contenido por la legislación existente en este tipo de productos. Sin embargo, podemos conseguir contenido extenso dedicado a explicar la composición de los productos.

2. Contenido duplicado: Panda penaliza el contenido duplicado, lo cual incluye tanto el "copiar-pegar" de otras webs como el contenido duplicado que se genera en nuestra propia tienda.

En el caso del e-commerce, muchos optan por incluir en sus fichas de productos la descripción que el propio fabricante ofrece; un texto que, en la mayoría de los casos además de ser muy breve, ya ofrecen todas las tiendas online que trabajen con tu mismo distribuidor, por lo que Google considerará que no aportas nada nuevo y penalizará tu web. Para evitarlo, procura dar un toque original, tratando de resolver las dudas más comunes en el proceso de compra y no sólo una descripción formal del producto. Como ejemplo podemos encontrar Maletalia.com, una tienda dedicada a la venta de maletas de diversas marcas que, sin embargo, ha apostado por crear contenido con estilo propio, evitando el de los fabricantes.

En muchas ocasiones, sin embargo, el contenido duplicado proviene de nuestra propia web. Contar con varias URL para tu página de inicio y no redireccionarlas correctamente, las versiones para móvil, o productos similares con descripciones idénticas son los casos más comunes de duplicidad dentro de la propia tienda.

3. Frecuencia de las publicaciones: la máxima con el cambio de algoritmo es calidad frente a cantidad. En definitiva, es preferible ofrecer un contenido que guste a nuestros lectores y esté orientado a hacerse viral, que una publicación diaria de poca calidad.

Si bien esto es cierto, en ocasiones, por el sector al que nos dediquemos, puede resultar difícil ofrecer nueva información si nuestros productos son relativamente estacionales, y no cambian. En este caso, apuesta por un blog corporativo como el de webs como LaMejorNaranja.com, donde puedas ofrecer contenido útil para tus usuarios, relacionado con tu negocio.

No tiene por qué ser un blog donde sólo se hable de tus productos, esta temática difícilmente va a ser considerada como viral. Lo mejor es que realices un pequeño estudio demográfico de tus usuarios, y les ofrezcas temas más abiertos que puedan interesarles, como decoración, belleza, arte o creatividad.

Este tipo de temáticas te permitirán publicar con cierta frecuencia contenido de calidad, sin convertir el blog corporativo en un espacio de auto-publicidad, que fácilmente se asemeje al spam. Un buen ejemplo de creación de contenido útil para sus clientes lo podríamos ver en el blog de belleza del centro de estética GermaineGoyaMadrid.com, que resuelve dudas de clientes interesados en sus tratamientos, e incluso ofrece temáticas más alejadas de sus servicios pero que interesan a sus lectores.

4. SEO Social: Acabamos de hablar de la viralización del contenido, y con el nuevo algoritmo las Redes Sociales vuelven a estar en el punto de mira, uno de los modos de saber si el contenido no sólo es de calidad, sino también interesante para los usuarios.

Es cierto que el tema de las redes sociales es siempre un arma de doble filo. Primero, porque no siempre una comunidad grande es una comunidad activa; segundo, porque a veces son las propias redes sociales las que censuran el contenido según la temática, como ocurre con el erotismo y la sexualidad. Tenemos claro que tanto Facebook como Google Plus (no tanto Twitter) tienen una sensibilidad especial hacia las publicaciones con carga erótica, lo que a veces complica el trabajo en redes sociales de webs como JugueteRosa.com, tienda online de productos eróticos. La clave en estos casos estará en utilizar imágenes sutiles que no puedan herir la sensibilidad de los usuarios y, sobre todo, la de Mark Zuckerberg y compañía.

Las consecuencias de este algoritmo ya han empezado a notarse y ha dejado claro quien venía realizando un buen trabajo, y quien optaba por atajos. En nuestro país ya tenemos claros ganadores y perdedores. Pero nuestro país no es el único que ha visto cómo bailaban los primeros puestos en el buscador de Google. Panda 4.0 ha influido en los resultados a nivel mundial y muchos países van sacando sus estadísticas post-panda, como también es el caso de Alemania por ejemplo.

Nico Sacotte, uno de los SEO más reconocidos a nivel europeo, lo define como "un trabajo intensivo por parte de Google para eliminar el Spam de sus resultados orgánicos. Especialmente el que se crea con herramientas automatizadas y con portales de contenido basura".

En definitiva, Panda 4.0 es una actualización que, con los deberes bien hechos sobre la mesa, no debe preocuparnos, tal y como acabamos de ver, pero que debemos tener en cuenta a la hora de orientar nuestro negocio online. En este sentido, el nuevo algoritmo es una oportunidad para los pequeños portales, siempre y cuando hayan cuidado su contenido ya que esta actualización puede eliminar de los primeros puestos a páginas grandes cuyo contenido, en realidad, no merezca estar en esa posición.