pongo el articulo en español aqui para no tener que ir a la fuente:
A principios de este año, Google reveló el envío de más de 700.000 mensajes a dueños de sitios web a través de la consola de WebMaster Tools. Quiero aclarar un malentendido acerca de esos mensajes. Mucha gente asumió que esos 700 mil mensajes estaban relacionados con las alertas de “enlaces no naturales detectados” que recibieron algunos dueños de sitios web.
La razón para enviar esos 700.000 mensajes mediante WebMaster Tools es porque empezamos a enviar alertas sobre técnicas de BlackHat. La enorme, enorme mayoría de las acciones manuales que tomamos son en páginas que están realizando técnicas evidentes de BlackHat, como contenido basura generado de manera automática o cloacking.
De hecho, de los mensajes que enviamos a los dueños de sitios, un número cercano a apenas 3% fueron por links artificiales. Solo para dejarlo aún más claro, de los 700.000 mensajes que enviamos en enero y febrero, más de 600.000 fueron por técnicas obvias de BlackHat y menos de 25.000 por links no naturales.
¿Sorprendidos?
Después de leer esta amable aclaración, algunas preguntas quedan en el aire ¿Por qué Google (representado por Matt Cutts) decidió aclarar esto ahora y no antes? ¿Cual fue la razón para que esperaran cinco o seis meses para explicarle a la gente qué es lo que estaba pasando? Mal que mal, el envío de los mensajes sobre enlaces artificiales fue noticia en todos los blogs y sitios web relacionados al mundo del SEO y ninguno planteaba que la mayoría de los mensajes eran por otro motivo.
Más aún, después de la actualización Pinguin (que hizo que Google mostrara las páginas de resultados peor evaluadas de su historia), muchos webmaster empezaron una carrera frenética por tratar de “limpiar” sus enlaces. Pocos días antes del lanzamiento de Pinguin, Google ya había dado un golpe en la mesa sacando del índice cientos de miles de dominios usados en redes de blogs falsos usados sólo para enviar enlaces a otros sitios y mejorar su ranking. Fueron días de mucha turbulencia, donde webmasters en todo el mundo descubrieron de la noche a la mañana que sitios de muchísima reputación y con años publicando contenido de calidad, habían desaparecido del mapa.
¿Aprovechó Google la confusión? Es muy probable que sí. En muchos foros de webmasters hubo mucha especulación sobre como recuperarse después de la última actualización mayor del algoritmo, nuevas redes de blogs y venta de enlaces aparecieron con la promesa de ser “a prueba de Pinguin”, muchos sitios de contenido legítimo vieron sus ingresos caer en picada, y la idea del “SEO Negativo” caló hondo entre muchos de los que creen que el SEO ya no significa mejorar un sitio web sino ejecutar acciones enfocadas en empeorar al resto (algo confirmado en parte por una serie de experimentos independientes).
Sin embargo, a raíz de esta aclaración, podemos intuir que quienes perdieron posiciones después de la actualización fueron quienes tenían un perfil de enlaces sospechoso (muchos spam en foros, blogs o bookmarking), sino sitios feos llenos de palabras claves sin sentido, por lo que disparar cientos de miles de links hacia un competidor no tendría un efecto negativo considerable. Insistimos, eso sí, que hay casos concretos de SEO negativo, pero es poco probable que puedan replicarse de modo comercial (o al menos eso esperamos).
¿Entonces?
Podemos aventurar algunas conclusiones sobre todo esto. Primero, si la mayoría de los mensajes enviados por Webmaster Tools fueron por técnicas Blackhat dentro del mismo sitio, es porque el margen para la compra de enlaces y uso de software automatizado es mucho más grande del que se pensaba. Basta con levantar nuevos dominios y ser un poco menos bruto a la hora de la ejecución para evitar la pérdida de posiciones. Después de la aclaración de Matt Cutts, es muy probable que oleadas de enlaces de spam vuelvan a asolar Internet.