optimizar el Robots.txt

  • Autor Autor gowkster
  • Fecha de inicio Fecha de inicio
G

gowkster

Delta
Hola a todos, el caso es que hace unos días migre uno de mis sitios de un servidor a otro y me hice un poco un lio con las carpetas, de manera que la dirección de mi sitio quedo así:
http: //www.misitio.com/www.misitio.com/index.php

El caso es que lo logre arreglar para que quedase una dirección normal tipo:


http: //www.misitio.com/index.php

pero el problema ahora me lo da la herramienta de webmaster de google, me dice un monton de errores ya que esta buscando las paginas con la dirección duplicada y no las encuentra.

Hay alguna manera de poner en el robots.txt que esas paginas ya no existen?, bueno mas que paginas seria toda la ruta
 
Verifica que las urls que te marca error en webmaster tools, estén funcionando. Si es que funcionan, entonces marca el error como "solucionado".

El robots.txt tiene carácter restrictivo. Osea que sirve para decirle a los robots que no deben ingresar a un directorio determinado.

Lo que también puedes hacer es "eliminar" esas urls del índice de google. Esto lo debes hacer desde webmaster tools.
 
No te olvides de usar canonical en cada pagina para evitar una penalizacion.
 
Atrás
Arriba