Exclusión de URLs en Search Console evita indexación de páginas

  • Autor Autor leanndamiann
  • Fecha de inicio Fecha de inicio
leanndamiann

leanndamiann

Gamma
Verificación en dos pasos activada
Verificado por Whatsapp
¡Ha verificado su Paypal!
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
A ver si me pueden ayudar con esto nose que pasa que no me esta indexando las paginas... Las paginas validas tienen el mismo formato que las que estan en excluidas, no se por que no me las toma.

scrn_1.webp


scrn_2.webp


scrn_3.webp


Ya no se que tocar para que me las indexe 🙁
 
He tenido problemas ultimamente para indexar ciertas entradas, nose que esta pasando :/
 
manda a indexarlars manual, o checa si no tienes una accion manual en acciones manuales
 
manda a indexarlars manual, o checa si no tienes una accion manual en acciones manuales

¿Como va a enviar 9.000 URLs de forma manual? ¿Se pueden subir en masa?

@leanndamiann

¿Estas seguro que no tienen la etiqueta no-index? ¿Son articulos de un blog, paginas, tags, categorias?
 
Esto es lo que dicen oficialmente:

" Descubierta: actualmente sin indexar. Google ha encontrado la página, pero todavía no la ha rastreado porque posiblemente en el momento de hacerlo el sitio web estaba sobrecargado, así que ha tenido que aplazar el rastreo. Por este motivo, en el informe no aparece la fecha del rastreo más reciente. "
 
Esto es lo que dicen oficialmente:

" Descubierta: actualmente sin indexar. Google ha encontrado la página, pero todavía no la ha rastreado porque posiblemente en el momento de hacerlo el sitio web estaba sobrecargado, así que ha tenido que aplazar el rastreo. Por este motivo, en el informe no aparece la fecha del rastreo más reciente. "
Ya le digo yo al user que es por que Google considera a su contenido pobre o duplicado, no tiene nada que ver con el servidor, esos mensajes están predefinidos, esto pasa en webs con muchas urls que se generan automáticamente, aunque el contenido sea de calidad a google le cuesta diferenciarlo del que es Spam.

La única forma que tienes de solucionarlo es dándole autoridad al sitio.
El sitemap seguro que ya lo subió y fue ahí cuando google Descubrió esas urls, daros cuenta que hay dos tipos de menajes en excluídas.


Excluidas
Descubierta: actualmente sin indexar
Excluidas
Rastreada: actualmente sin indexar
 
A mi me pasa esto:
111111.webp


Mi contenido, es practicamente todo de imagenes, y aunque aportan mucho valor al usuario, puesto que son infografías de calidad, google parece que lo toma como spam ... 🙁

La única forma que tienes de solucionarlo es dándole autoridad al sitio.

Con esto quieres decir, que si se le consigue dar autoridad al sitio (mediante backlinks, por ejemplo) se puede revertir esa situación y que google vuelva a incluir esas URLS?

Gracias!
 
A mi me pasa esto:
Ver el archivo adjunto 324927

Mi contenido, es practicamente todo de imagenes, y aunque aportan mucho valor al usuario, puesto que son infografías de calidad, google parece que lo toma como spam ... 🙁



Con esto quieres decir, que si se le consigue dar autoridad al sitio (mediante backlinks, por ejemplo) se puede revertir esa situación y que google vuelva a incluir esas URLS?

Gracias!
Con enlaces y con contenido fresco y de calidad, cuánto más se actualice mejor, pero tu problema no es igual, tu tiene un 50/50, con el tiempo irá indexándolo, eso si, si quieres acelerarlo tienes que darle autoridad, o bien actualizándolo muy a menudo o bien con enlaces
 
Con enlaces y con contenido fresco y de calidad, cuánto más se actualice mejor, pero tu problema no es igual, tu tiene un 50/50, con el tiempo irá indexándolo, eso si, si quieres acelerarlo tienes que darle autoridad, o bien actualizándolo muy a menudo o bien con enlaces

El tema es que cuando hago site:dominio.com , solo me muestra 5 urls indexadas. Sin embargo, si copio cualquier URL del dominio, y la pongo en busqueda, me aparece. ¿Esto es normal?

Edit: Y gracias porla respuesta! 😛
 
Atrás
Arriba