robot.txt me restringe 53 paginas

  • Autor Autor Demiax
  • Fecha de inicio Fecha de inicio
Demiax

Demiax

Épsilon
Programador
Verificación en dos pasos activada
Hola gente, hoy me encontré con que el robot.txt segun webmastertools me restringe 53 paginas, sin embargo el sitemap de las 94 entradas que envió acepto 93, no soy muy entendido del tema, si alguno me puede dar alguna respuesta, una solución o algo por el estilo le soy agradecido. Un saludo grande para todos.

figura para foro.webp
 
es la web de tu firma??

en robots.txt tenes

Disallow: /search

o sea, te va a restringir todas las busquedas en tu blog.


que estaria bien porque para google es contenido duplicado en tu web, yo tambien las tengo restringidas.
 
Última edición:
Si es la web de mi firma, te dejo el codigo del robot.txt abajo, gracias.


User-agent: Mediapartners-Google
Disallow:

User-agent: *
Disallow: /search
Allow: /

Sitemap: Enlace eliminado
 
No se que manía tenéis con restringir a buscadores, que ganas restringiendo?
 
Atrás
Arriba