Muy buenas, os cuento el asunto, a ver si consigo hacerme entender:

Yo tengo un sitio web estructurado de esta manera:

- misitioweb.com: Utiliza un CMS llamado Spip

- misitioweb.com/blog: Utiliza el CMS Wordpress

Es decir, a los efectos es como tener dos sitios webs diferentes, con diferentes CMS, diferentes bases de datos, etc.

Con un programa de escritorio gratuito generé un sitemap único de todo... es decir, de los dos sitios. El sitemap generado lo colgué en el raíz, de tal manera que se podía visualizar en misitioweb.com/sitemap.xml

Lo anterior me pareció una burrada, ya que el sitemap generado era enorme, y encima comprendía a dos sitios totalmente diferentes, así que decidí cambiar esto y he generado, esta vez con plugins específicos de los CMS y con mayor control, dos sitemaps diferentes, uno para cada sitio. Es decir, ahora tengo lo siguiente:

- misitioweb.com/sitemap.xml (este sitemap lo he generado con un plugin de Spip)

- misitioweb.com/blog/sitemap.xml (este sitemap lo he generado con un plugin de Wordpress)


Entonces, en el archivo robots.txt, en misitioweb.com/robots.txt, simplemente he añadido estas dos líneas, una después de la otra:

Sitemap: misitioweb/sitemap.xml

Sitemap: misitioweb/blog/sitemap.xml


Mi pregunta es: ¿He actuado correctamente al editar robots.txt? ¿O quizá la línea "Sitemap: misitioweb/blog/sitemap.xml" no la tenía que haber añadido en "misitioweb.com/robots.txt", sino en "misitioweb.com/blog/robots.txt" (o quizá es correcto hacerlo en ambos sitios)

Debo decir que al enviar estos sitemaps a Google en Google Search, todavía no se ha indexado ninguno de los enlaces del sitemap de "misitioweb/blog/sitemap.xml", mientras que los enlaces del sitemap de "misitioweb/sitemap.xml" se indexaron enseguida (de hecho, el número de enlaces indexados supera al número de enlaces enviados, raro, ¿no?)

Gracias de antemano.