Páginas bloqueadas por robots

  • Autor Autor Nonstopwoman
  • Fecha de inicio Fecha de inicio
N

Nonstopwoman

Beta
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
Hola Betas,

No controlo del todo el webmaster tools, y cotilleando un poco hoy he ido al menú Salud/Estado de indexación y aquí he visto que tengo 6 páginas bloqueadas por robots, y la verdad es que me he quedado preocupada. ¿Alguien me puede decir que significa y si es malo para mi web? gracias.
 
No utilizaras el blogger? Juraría que daba alguna historia de este tipo de que robots.txt no dejaba acceder a los archivos o algo así...
 
¿Nadie me puede ayudar con esto? Aunque os parezca poco lo que me digáis para mi es mucho...no tengo ni idea en el tema. Saludos.
 
Pues yo pregunte hace poco lo mismo pero para blogger y no obtuve respuesta. Pero te comento, al parecer los archivos robot.txt generalmente evitan la indexación de contenido duplicado, aunque te ponga que no tienes ninguna url indexada y que tienes unas cuantas bloqueadas en webmaster tools eso no es asi en realidad.
Para comprobarlo haz esto, pon en google: ”site:elnombredetublog.com” sin las comillas (no se si influira negativamente o no, pero yo no puse el www ni el http y funcionó bien), al hacer esto google te dará los resultados de tu blog que ha indexado, si hay páginas indexadas google te las mostrará.
Una vez te las muestre, comprueba que lo más seguro te dirá que hay resultados de busqueda omitidos porque carecen de relevancia, dale a que te los muestre, y lo más seguro en la descripción de estos resultados aparecerá que el archivo robot.txt evita que se indexen. Comprueba que estos resultados son de contenido duplicado, es decir, que el link enlaza a el mismo contenido que los otros links que si estan indexados. Si es así, todo está correcto.
Te recomiendo que busques sobre los archivos robot.txt, hay mucha información en internet y no es dificil hacerse una idea de como funcionan. El evitar contenido duplicado hace que google dé una mayor relvancia al contenido de tu sitio por lo que posicionas mejor tus articulos.
Si algo no te ha quedado claro dimelo, que algunas veces me expreso como el culo jajaja, un saludooo.
 
Pues yo pregunte hace poco lo mismo pero para blogger y no obtuve respuesta. Pero te comento, al parecer los archivos robot.txt generalmente evitan la indexación de contenido duplicado, aunque te ponga que no tienes ninguna url indexada y que tienes unas cuantas bloqueadas en webmaster tools eso no es asi en realidad.
Para comprobarlo haz esto, pon en google: ”site:elnombredetublog.com” sin las comillas (no se si influira negativamente o no, pero yo no puse el www ni el http y funcionó bien), al hacer esto google te dará los resultados de tu blog que ha indexado, si hay páginas indexadas google te las mostrará.
Una vez te las muestre, comprueba que lo más seguro te dirá que hay resultados de busqueda omitidos porque carecen de relevancia, dale a que te los muestre, y lo más seguro en la descripción de estos resultados aparecerá que el archivo robot.txt evita que se indexen. Comprueba que estos resultados son de contenido duplicado, es decir, que el link enlaza a el mismo contenido que los otros links que si estan indexados. Si es así, todo está correcto.
Te recomiendo que busques sobre los archivos robot.txt, hay mucha información en internet y no es dificil hacerse una idea de como funcionan. El evitar contenido duplicado hace que google dé una mayor relvancia al contenido de tu sitio por lo que posicionas mejor tus articulos.
Si algo no te ha quedado claro dimelo, que algunas veces me expreso como el culo jajaja, un saludooo.


Muchas gracias me has ayudado mucho, sigue pareciéndome um tema oscuro pero ya es un poco por desconocimiento, seguiré tus recomendaciones. Al menos, ya me quedo más tranquila. 🙂
 
Atrás
Arriba