Cómo desindexar miles de páginas en 2 días usando noindex en metaetiquetas

  • Autor Autor MorrisM
  • Fecha de inicio Fecha de inicio
MorrisM

MorrisM

Dseda
He leído muchas preguntas sobre contenido duplicado relacionando robots.txt, noindex y herramientas de webmasters por eso les comento mi experiencia más reciente.

Hace 2 noches le puse la etiqueta noindex a miles de páginas en uno de mis sitios que quería fueran borradas por google, para grata sorpresa, el índice de google se actualizó hace un rato. De 28,000 páginas ahora sólo tengo 19,300. Nada mal.

Según mi experiencia en las herramientas de webmasters tarda mucho más en reflejarse, pero ya les estaré comentando cuando esto suceda.

Mi conclusión, el meta noindex funciona muy rápido y a diferencia del error 404 no se ve como "error" en webmaster tools.
 
¿Pero eran páginas que existían cierto? Porque tengo el mismo problema, pero con páginas que no existen...
 
Yo lo que hacía es colocar el meta noindex y seguidamente mediante Webmaster tools borrar el contenido.. de un día para otro los enlaces están eliminados...
 
Hola yo estoy deindexando un sitio completo y lo que he hecho fue un <meta name="robots" content="noindex"> y borrar la ULR mediante webmaster tool. Tambien debo bloquearlo mediante robot txt o ya con eso basta?.

Que tiempo dura para que se refleje el deindexado completo, haciendo un site:sitio.com
 
Páginas que existían.

Las páginas que no existen deben de dar error 404, sólo ponle en las herramientas de webmaster "marcar como arreglado" y listo.

- - - Actualizado - - -

No tienes que bloquearlas con robots.txt y puede tardar mucho.
 
Para mi es mucho más rapido tambien tocar el robots.txt y eliminar desde GWT
 
Cuando tienes que eliminar 20,000 urls no es nada práctico hacer eso.
 
A mí me funcionó esto:

eliminé mi sitio de Webmasters Tools e instalé un plugin que bloquea algunos resultados duplicados...

esperé como una semana y volví a ingresar el sitio... RESUELTO!!

(TENIA 20.000 ERRORES SEGUN GOOGLE, YA NO APARECE NINGUNO)
 
A mí me funcionó esto:

eliminé mi sitio de Webmasters Tools e instalé un plugin que bloquea algunos resultados duplicados...

esperé como una semana y volví a ingresar el sitio... RESUELTO!!

(TENIA 20.000 ERRORES SEGUN GOOGLE, YA NO APARECE NINGUNO)

que plugin es? 🙂
 
que plugin es? 🙂

No soy muy partidario de comentar sobre plugins que no he probado a fondo, y menos cuando hacen varias cosas a la vez, pero igualmente es este, en realidad el plugin lo instalé para evitar que Google me mostrara contenido duplicado, que también lo estaba haciendo, pero eso es aparte de los 20.000 errores que tenía... según Google (fue debido a un plugin de traducción que instalé y luego borré...)

Enlace eliminado

- - - Actualizado - - -

Por cierto también eliminé el Sitemap que había creado y el Robots.txt (este plugin se supone que genera uno nuevo, pero debe ser virtual, porque no hay ningún archivo físico), igualmente creo que lo importante es que me tocó eliminar el sitio web de Webmasters Tools para que el dichoso Google dijera "ah, esto toca actualizarlo", cuando lo incorporé de nuevo, estuve como un mes eliminando errores, enviando Sitemaps, bloqueando urls, y no sirvió absolutamente de nada
 
Última edición:
Atrás
Arriba