¿Es correcto este Robots.txt para Wordpress y Vbulletin?

blimo86 Seguir

Beta
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
Desde
8 Ago 2009
Mensajes
30
Hola amigos.

Estoy intentando optimizar mi archivo robots.txt para contentar a Google, pero no estoy seguro si es correcto o realmente estoy teniendo el efecto contrario.

En mi web tengo instalado tanto Wordpress como Vbulletin y conviven juntos.

Insertar CODE, HTML o PHP:
Sitemap: http://www.comunidadxbox.com/sitemap_index.xml
Sitemap: http://www.comunidadxbox.com/sitemap-image.xml
Sitemap: http://www.comunidadxbox.com/foroxbox360/sitemap_index.xml.gz

User-agent: * 
Allow: /wp-content/uploads/ 
Allow: /feed/$
Allow: /wp-content/imagenes/$
Allow: /foroxbox360/*.gz
Allow: /foroxbox360/$ 
Disallow: /wp-content/plugins/ 
Disallow: /wp-content/themes/ 
Disallow: /wp-includes/ 
Disallow: /wp-admin/ 
Disallow: /Genis/ 
Disallow: /wp- 
Disallow: /?s= 
Disallow: /search 
Disallow: /feed 
Disallow: /comments/feed 
Disallow: /*/feed/$ 
Disallow: /*/feed/rss/$ 
Disallow: /*/trackback/$ 
Disallow: /*/*/feed/$ 
Disallow: /*/*/feed/rss/$ 
Disallow: /*/*/trackback/$ 
Disallow: /*/*/*/feed/$ 
Disallow: /*/*/*/feed/rss/$ 
Disallow: /*/*/*/trackback/$ 

User-agent: Googlebot 
Allow: /foroxbox360/*.gz
Allow: /wp-content/imagenes/$
Allow: /foroxbox360/$
Disallow: /*.php$ 
Disallow: /*.js$ 
Disallow: /*.inc$ 
Disallow: /*.css$ 
Disallow: /*.wmv$ 
Disallow: /*.cgi$ 
Disallow: /*.xhtml$ 
Disallow: /*?* 
Disallow: /*.txt$ 


User-agent: Mediapartners-Google* 
Disallow: 


User-agent: Googlebot-Image 
Disallow: 

User-agent: MSIECrawler 
Disallow: / 

User-agent: WebCopier 
Disallow: / 

User-agent: HTTrack 
Disallow: / 

User-agent: Microsoft.URL.Control 
Disallow: / 

User-agent: libwww 
Disallow: / 


User-agent: duggmirror 
Disallow: / 


User-agent: noxtrumbot 
Crawl-delay: 50 

User-agent: msnbot 
Crawl-delay: 30 

User-agent: Slurp 
Crawl-delay: 10  

User-agent: TechnoratiBot/8.1
Disallow:

Espero vuestra ayuda y consejos al respecto y poder mejorar el archivo robots.txt para que además lo pueda utilizar otras personas.

Mil gracias.
 
Arriba