Al pingüino de Google no le gusta el webspam
A principios de este mes de mayo de 2012 la gente de Google sacó su nueva versión del algoritmo con el que clasifica y ordena las páginas al realizar una búsqueda, la que denominaron Penguin Update. La mayor parte del marketing en Internet, gira en torno a la mejor adaptación de las páginas web a los motores de búsqueda, para mejorar la posición de las mismas, para que aparezcan en los primeros lugares cuando una persona usa determinada palabra clave que les interese. A esta rama del marketing on-line, se le denomina SEO (Optimización para Motores de Búsqueda, o posicionamiento en buscadores).
Los que trabajan en ello, el SEO, lo describen como una ciencia. Los que somos un poco escépticos pensamos en ello como algo parecido a la magia. Está claro que hay una serie de normas que el buscador cumple, como la relevancia del contenido de nuestra página respecto a las palabras claves, o la popularidad de nuestra página, valorada según el número de enlaces externos que posee y conexiones que recibe. A partir de ahí los expertos han dado con una serie de trucos que permiten falsear, en su propio beneficio, la supuesta relevancia de las páginas. Por supuesto que Google conoce estos trucos, e intenta combatirlos con la evolución continua de su famoso algoritmo.
Ni unos ni otros son inocentes. Los expertos SEO cobran su servicio y, si son buenos, mejoran la posición de nuestras páginas con sus conocimiento. Google prefiere que ese dinero vaya a sus bolsillos y que la mejora de nuestro posicionamiento dependa de los enlaces patrocinados (AdWords), es decir, que nuestras páginas aparezcan en los primeros lugares, de forma artificial, a cambio de cierta cantidad de dinero, que dependerá del número de palabras clave que compremos, el valor de las mismas en el mercado y el número de clicks que recibamos a cambio (lo que se ha denominado SEM, y que también cuenta con su nutrido grupo de expertos).
Esta lucha tiene también sus victimas y es que no es tan extraño entrar en una página web muy bien posicionada y que, sin embargo, su información y/o estructura no tenga pies ni cabeza. Seguramente está llena de enlaces escondidos, autoenlaces o rebota en multitud de páginas paralelas. Desde luego el posicionador ha hecho bien su trabajo, pero el usuario igual no encuentra la información que había entrado a buscar. A toda la basurilla SEO, se la denomina Webspam o Spamdexing, y usa varias técnicas principalmente:
- El empacho de keywords: Si llenamos todo nuestro texto con las palabras claves por las que queremos que nos encuentren, seguramente que funcionará, pero el usuario no entenderá nada y seguramente saldrá de la página bastante mosqueado. A veces los listillos incluyen estas palabras como texto invisible al usuario, en los márgenes o al final de la página.
- Los enlaces fraudulentos: aquellos que provienen de páginas clónicas dedicadas simplemente a ello, las compras de enlaces o el exceso de intercambio.
- Las páginas falsas, redireccionamientos y páginas puerta: Las primeras son las que intentan engañar al buscador, ofreciéndole una información distinta de la que recibe el usuario, las segundas actúan de la misma manera, pero mediante redireccionamientos y las páginas puerta son las que están optimizadas para una determinada palabra clave o frase, aunque luego nos ofrezcan cualquier otra cosa. Algunas de estas técnicas pueden incluso rozar el phishing.
- El uso de contenido duplicado: Puede tener varias vertientes, pero en general se refiere a la practica de tener distintos dominios con contenidos duplicados o similares, que se enlazan y referencian unos a otros, con la intención de acaparar ciertas palabras claves.
El problema para Google es cómo diferenciar estas prácticas poco aconsejables de las que se producen de manera natural en el uso de la web. La empresa lleva luchando muchos años contra este webspam pero, como siempre ocurre, a cada nuevo avance, surge una nueva táctica por parte del enemigo. Con esta nueva actualización creían que se verían afectadas de un 3 a un 5% de las páginas. Tras las primeras semanas se han producido algunos casos de falsos positivos (caso Viagra y otros), pero no ha habido grandes cambios en los page-ranks.
La pregunta, en definitiva, que nos hacemos los simples mortales es ¿Cómo puede evitar Google que paguen justos por pecadores?
Reconocimientos: Para los que busquen una información en profundidad les aconsejo que echen un vistazo en Search Engine Land, un buen sitio para ampliar nuestros conocimientos sobre el funcionamiento de los buscadores.
Me parece muy buena la información que proporcionaste en este post ya que explicas cada cosa y para complementar añades enlaces. Suerte, buen blog!