viernes, 19 de julio de 2013

Dos algoritmos que amenazan el SEO


El Google Panda se ocupa de ofrecer contenidos de calidad y el Penguin, de luchar contra los contenidos de baja calidad y el spam. El buscador ha dicho a la prensa que vio la necesidad de filtrar los resultados debido a la proliferación masiva de sitios web con contenidos de baja calidad (o sitios web basura). Según Google, una pequeñísima minoría de los sitios web que se lanzaban tenía una calidad decente. Los demás pretendían posicionarse de cualquier modo en los rankings de búsqueda con deliberadas palabras clave pero copiando contenido o mejorándolo sólo para usar esas palabras clave. 

Entonces, con el objetivo de sanear las búsquedas en Internet, Google actualizó sus algoritmos y muchos blogs y sitios web han perdido sus posiciones. Los de buena calidad, por cierto, ganaron posiciones. 

Desde el punto de vista de la experiencia del usuario, Google Panda prioriza aquellos sitios web que aportan valor al visitante. Dicho de otro modo: cuando realizamos una búsqueda queremos encontrar en las primeras posiciones lo que estamos buscando. Cuando la búsqueda capta las palabras clave pero sólo porque éstas han sido forzadas en contenidos no directamente relacionados con mi búsqueda, entonces la experiencia es frustrante. Esos son los comportamientos que persigue Google con la actualización del Panda.
La actualización del Google Penguin se propone luchar contra los contenidos de baja calidad y el spam eliminando de sus rankings a los sitios que violen los lineamientos establecidos por Google. El principio rector de la actualización es penalizar sitios que usan técnicas de manipulación para lograr buenas posiciones en los rankings. El objetivo es atrapar spammers, pero parece que algunos sitios legítimos han quedado atrapados con el último cambio del algoritmo. 

Leer completo en: www.mercado.com.ar
Enhanced by Zemanta