Efectivamente, es un problema con el robots.txt
Por eso se ve así la página en la primera captura y por eso en la segunda te dice que no puede cargar más o menos la mitad de los contenidos. Por mi experiencia, es mejor dejar el robots "abierto" y que los propios buscadores hagan su trabajo. Al final son demasiados quebraderos de cabeza.
Además, me ha pasado que con el robots afinado, el bot de Google se encuentra algún enlace hacia una página que está bloqueada por el robots, y entonces la indexa y de forma muy cutre, sin título ni descripción. ¿Por qué? Porque al haber un enlace entrante (ya sea interno o externo) pero no poder entrar para ver si tiene un noindex, la indexa de esa forma. En cambio, si no está bloqueada por el robots, puede entrar, ver que hay un noindex y no indexarla. Consume crawl budget en ello, cierto, pero a veces es peor el remedio que la enfermedad. Y si la página tiene una estructura lógica, no es necesario hacer bloqueos con el robots.txt
¡Un saludo!