LOL
Google tiene miles de servidores a su disposición, creo que si tuvieras una minima idea del potencial que se puede lograr con maquinas, entenderias que puede detectar contenido duplicado, que tenga fallas eso seguro, nada es perfecto.
Saludos
Tienes 100 millones de paginas (obviamente son muchas mas.. pero supongamos)
Entonces quieres ver cuales tienen paginas duplicados...
Asi que tenemos una matriz de 100,000,000 x 100,000,000... Osease: 10,000,000,000,000,000, que si mal no calculo son 10 Billones de combinaciones.
Sabes cuanto poder de CPU se necesitaria?
Y si son mas??
No hay computadoras capaces de analizar tanta informacion, Google no es todopoderoso.
Ademas, hay que tomar en cuenta que google no indexa la mayor parte de la web ni mucho menos.
PEEERO
Si el contenido es indexado es probable que lo cuente como contenido duplicado. Si el contenido duplicado te enlaza a tu sitio pues que importa! Ganas tu, pierde el otro.
Si no te enlaza hay un par de cosas que probablemente toma Google en cuenta para lanzar un resultado al "Supplemental index" y otro no, entre ellas, tal ves, quien publico primero.
- - - Actualizado - - -
Yo tengo una duda. Muchos blogs se posicionaron mejor que yo con un post que me robaron palabra por palabra (incluyendo la imagen) y en cambio, mi post perdio posicionamiento ¿Que puedo hacer al respecto?
A esto me referia.
Entre lo que "puede tomar Google" como referencia para saber a quien posicionar encima del otro estan estos factores:
- Que contenido "vio" primero Google
- La autoridad del dominio donde esta el contenido
- Que pagina tiene mas enlaces entrantes
- El PageRank de la pagina
- Si las copias enlazan a algun sitio en particular, el cual seria tomado como el original
PD. Ya para terminar. Si tienes contenido duplicado te manda al "supplemental index". A meeeenos que toooodo tu sitio sea un copy paste de otros, es muy raro que te penalice como tal.