N 
		
				
			
		nicorto
Lambda
		Hola, estoy teniendo problemas a la hora de enviar el sitemap a webmastertools, me sale que hay un error en el robots.txt que está bloqueando el acceso, la verdad me extraña por que es el mismo que tengo en mis otras webs.
Este es mi robots.txt
	
	
	
		
Un saludo gente y gracias por la ayuda
	
		
			
		
		
	
				
			Este es mi robots.txt
		Insertar CODE, HTML o PHP:
	
	# Google Image
User-agent: Googlebot-Image
Disallow:
Allow: /*
# digg mirror
User-agent: duggmirror
Disallow: /
# global
User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/cache/
Disallow: /wp-content/themes/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /*?
Disallow: /wp-login.php
Allow: /wp-content/uploads/
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /*.php$
Disallow: /2012/
Disallow: /author/
Disallow: /wp-
Disallow: /?s=
Disallow: /search
Disallow: /*/feed/$
Disallow: /*/feed/rss/$
Disallow: /*/trackback/$
Disallow: /*/*/feed/$
Disallow: /*/*/feed/rss/$
Disallow: /*/*/trackback/$
Disallow: /*/*/*/feed/$
Disallow: /*/*/*/feed/rss/$
Disallow: /*/*/*/trackback/$
User-agent: MSIECrawler
Disallow: /
User-agent: WebCopier
Disallow: /
User-agent: HTTrack
Disallow: /
User-agent: Microsoft.URL.Control
Disallow: /
User-agent: libwww
Disallow: /
User-agent: noxtrumbot
Crawl-delay: 150
User-agent: msnbot
Crawl-delay: 130
User-agent: Slurp
Crawl-delay: 110
User-agent: Mediapartners-Google
Allow: /*
Sitemap: http://www.miweb.com/sitemap.xml
	Un saludo gente y gracias por la ayuda