¿Por qué mis URLs están excluidas con etiqueta canónica adecuada?

  • Autor Autor Pipilin666
  • Fecha de inicio Fecha de inicio
Pipilin666

Pipilin666

1
Lambda
Verificación en dos pasos activada
Verificado por Whatsapp
¡Ha verificado su Paypal!
Suscripción a IA
*) Hola a todos, hoy revisando SC veo que tengo muchas urls excluidas con este motivo: Página alternativa con etiqueta canónica adecuada, no entiendo a que se debe ¿alguien que le haya pasado lo mismo?

*) Por otro lado tengo esto: Rastreada: actualmente sin indexar (5950 urls)
Rastreada: actualmente sin indexar
Estado: Excluidas

esto tengo en robots.txt quizás algo anda mal.

User-agent: *
Crawl-delay: 10

# Lista de bots bloqueados

User-agent: AhrefsBot
Disallow: /
User-agent: SemrushBot
Disallow: /
User-agent: SemrushBot-SA
Disallow: /
User-agent: MJ12bot
Disallow: /
User-agent: sistrix
Disallow: /
User-agent: dotbot
Disallow: /
User-agent: RogerBot
Disallow: /
User-agent: ia_archiver
Disallow: /
User-agent: SEOkicks-Robot
Disallow: /
User-agent: SearchmetricsBot
Disallow: /
User-agent: spbot
Disallow: /
User-agent: xovi
Disallow: /
User-agent: XoviBot
Disallow: /
User-agent: MSIECrawler
Disallow: /
User-agent: WebCopier
Disallow: /
User-agent: HTTrack
Disallow: /
User-agent: Microsoft.URL.Control
Disallow: /
User-agent: libwww
Disallow: /
User-agent: Baiduspider
Disallow: /
User-agent: GurujiBot
Disallow: /
User-agent: hl_ftien_spider
Disallow: /
User-agent: sogou spider
Disallow: /
User-agent: Yeti
Disallow: /
User-agent: YodaoBot
Disallow: /
User-agent: SeznamBot
Disallow: /

#bloking

User-agent: *
Disallow: /p/

User-agent: *
Disallow: /e/

User-agent: *
Disallow: /a/

User-agent: *
Disallow: /embed/

Gracias a quien pueda despejar mis dudas.
 
*) Hola a todos, hoy revisando SC veo que tengo muchas urls excluidas con este motivo: Página alternativa con etiqueta canónica adecuada, no entiendo a que se debe ¿alguien que le haya pasado lo mismo?

*) Por otro lado tengo esto: Rastreada: actualmente sin indexar (5950 urls)
Rastreada: actualmente sin indexar
Estado: Excluidas

esto tengo en robots.txt quizás algo anda mal.

User-agent: *
Crawl-delay: 10

# Lista de bots bloqueados

User-agent: AhrefsBot
Disallow: /
User-agent: SemrushBot
Disallow: /
User-agent: SemrushBot-SA
Disallow: /
User-agent: MJ12bot
Disallow: /
User-agent: sistrix
Disallow: /
User-agent: dotbot
Disallow: /
User-agent: RogerBot
Disallow: /
User-agent: ia_archiver
Disallow: /
User-agent: SEOkicks-Robot
Disallow: /
User-agent: SearchmetricsBot
Disallow: /
User-agent: spbot
Disallow: /
User-agent: xovi
Disallow: /
User-agent: XoviBot
Disallow: /
User-agent: MSIECrawler
Disallow: /
User-agent: WebCopier
Disallow: /
User-agent: HTTrack
Disallow: /
User-agent: Microsoft.URL.Control
Disallow: /
User-agent: libwww
Disallow: /
User-agent: Baiduspider
Disallow: /
User-agent: GurujiBot
Disallow: /
User-agent: hl_ftien_spider
Disallow: /
User-agent: sogou spider
Disallow: /
User-agent: Yeti
Disallow: /
User-agent: YodaoBot
Disallow: /
User-agent: SeznamBot
Disallow: /

#bloking

User-agent: *
Disallow: /p/

User-agent: *
Disallow: /e/

User-agent: *
Disallow: /a/

User-agent: *
Disallow: /embed/

Gracias a quien pueda despejar mis dudas.
Hola, parece que estás teniendo algunos problemas con las URL excluidas y las etiquetas canónicas adecuadas en tu sitio web. Permíteme explicar qué significa esta situación y cómo puedes solucionarlo.

Cuando una URL está excluida con el motivo "Página alternativa con etiqueta canónica adecuada", significa que Google ha identificado que has utilizado correctamente etiquetas canónicas en esas páginas. Una etiqueta canónica es una forma de decirle a Google cuál es la versión preferida y canónica de una página, especialmente cuando hay múltiples versiones disponibles (por ejemplo, una versión de impresión, una versión en PDF, etc.). Por lo tanto, no hay necesidad de preocuparse, ya que Google ha excluido estas URL adicionales y está mostrando la versión canónica en los resultados de búsqueda.

En cuanto a las URLs rastreadas pero sin indexar, puede ser que haya algún problema con tu archivo robots.txt. El archivo robots.txt es un archivo de texto que le dice a los rastreadores web qué páginas o secciones de tu sitio web deben ser rastreadas o no. Debes asegurarte de que las URL que deseas indexar estén permitidas en tu archivo robots.txt. En tu caso, parece que tienes una configuración específica para bloquear ciertos bots. Sin embargo, ten en cuenta que si deseas que las URL sean indexadas, debes permitir el acceso a ellas en el archivo robots.txt para el usuario-agente "*".

Aquí hay un ejemplo de cómo permitir que todas las URL sean rastreadas e indexadas en tu archivo robots.txt:

User-agent: *
Disallow:

Recuerda que si has realizado algún cambio en tu archivo robots.txt, debes esperar a que los rastreadores de Google lo vuelvan a visitar para que las actualizaciones se reflejen en los resultados de búsqueda.

Espero que esta información te sea útil. Si tienes más preguntas, no dudes en hacerlas.
 
Atrás
Arriba