N
nicorto
Lambda
Hola, estoy teniendo problemas a la hora de enviar el sitemap a webmastertools, me sale que hay un error en el robots.txt que está bloqueando el acceso, la verdad me extraña por que es el mismo que tengo en mis otras webs.
Este es mi robots.txt
Un saludo gente y gracias por la ayuda
Este es mi robots.txt
Insertar CODE, HTML o PHP:
# Google Image
User-agent: Googlebot-Image
Disallow:
Allow: /*
# digg mirror
User-agent: duggmirror
Disallow: /
# global
User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/cache/
Disallow: /wp-content/themes/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /*?
Disallow: /wp-login.php
Allow: /wp-content/uploads/
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /*.php$
Disallow: /2012/
Disallow: /author/
Disallow: /wp-
Disallow: /?s=
Disallow: /search
Disallow: /*/feed/$
Disallow: /*/feed/rss/$
Disallow: /*/trackback/$
Disallow: /*/*/feed/$
Disallow: /*/*/feed/rss/$
Disallow: /*/*/trackback/$
Disallow: /*/*/*/feed/$
Disallow: /*/*/*/feed/rss/$
Disallow: /*/*/*/trackback/$
User-agent: MSIECrawler
Disallow: /
User-agent: WebCopier
Disallow: /
User-agent: HTTrack
Disallow: /
User-agent: Microsoft.URL.Control
Disallow: /
User-agent: libwww
Disallow: /
User-agent: noxtrumbot
Crawl-delay: 150
User-agent: msnbot
Crawl-delay: 130
User-agent: Slurp
Crawl-delay: 110
User-agent: Mediapartners-Google
Allow: /*
Sitemap: http://www.miweb.com/sitemap.xml
Un saludo gente y gracias por la ayuda