Problema con Google Search Console

  • Autor Autor sergulath
  • Fecha de inicio Fecha de inicio
S

sergulath

No recomendado
Verificado por Whatsapp
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
Buenas noches,

Hace poco creé un blog (ya tiene 3 entradas extensas) y el jueves pasado lo di de alta en Google Search Console.
Revisando la herramienta veo que las URL de mis 3 entradas aparecen como "No indexadas: excluidas".
1656463591035.webp


En la documentacion de Google aparece lo siguiente:
"
  • Excluidas: la página no está indexada, pero creemos que esa es tu intención. Por ejemplo, es posible que la hayas excluido intencionadamente con una directiva noindex o que sea un duplicado de una página canónica de tu sitio que ya se ha indexado."

El blog esta en Wordpress, revise en YOAST SEO y las entradas deberian estar indexadas:
1656463772227.webp


¿Saben que podria estar pasando?

Muchas gracias de antemano, saludos!
 
Hola. No entiendo lo de directiva noindex, se supone que vos no le diste ninguna directiva, ¿no? Y los artículos que subiste son originales al 100%, porque tal vez puede ser eso (los toma como contenido duplicado). Otra cosa no se me ocurre... tal vez otra persona pueda ayudar más.
 
has enviado el sitemap para que los robost de google lo rastreen ?
1656465007877.webp

si lo tienes activado,desactiva esta opcion
por otra parte talvez se esta demorando en rastrear, esto dice google tambien

1656465154546.webp
 
Hola. No entiendo lo de directiva noindex, se supone que vos no le diste ninguna directiva, ¿no? Y los artículos que subiste son originales al 100%, porque tal vez puede ser eso (los toma como contenido duplicado). Otra cosa no se me ocurre... tal vez otra persona pueda ayudar más.
Son archivos traducidos a mano. Segun la docu si es contenido duplicado te dice "no indexado por duplicado.
Revise el codigo fuente de las entradas y esta con Index, no con nonindex:

<meta name='robots' content='index, follow, max-image-preview:large, max-snippet:-1, max-video-preview:-1' />
 
Son archivos traducidos a mano. Segun la docu si es contenido duplicado te dice "no indexado por duplicado.
Revise el codigo fuente de las entradas y esta con Index, no con nonindex:

<meta name='robots' content='index, follow, max-image-preview:large, max-snippet:-1, max-video-preview:-1' />
Claro, entonces capaz es demasiado pronto y no queda otra opción que esperar. Lo de tratar de mandar el sitemap es otra. Vamos a ver si otra persona puede ayudarte, me sirve también aprender por si en un futuro me sucede. Suerte y ojalá lo soluciones. 🙌🏼
 
Todo lo que han escrito los compañeros es lo que yo te diría como primeras instancias.

Lo que no te han preguntado y yo te pregunto es: Tienes un archivo robots.txt ? Si lo tienes, quizás hay alguna directiva ahí de "noindex".

De todas maneras es muy nuevo el sitio, yo le daría un poco de tiempo antes de sacar conclusiones
 
Todo lo que han escrito los compañeros es lo que yo te diría como primeras instancias.

Lo que no te han preguntado y yo te pregunto es: Tienes un archivo robots.txt ? Si lo tienes, quizás hay alguna directiva ahí de "noindex".

De todas maneras es muy nuevo el sitio, yo le daría un poco de tiempo antes de sacar conclusiones
Eso no revise, ahora voy a revisar.
Muchas gracias por tu opinion
 
también pueden ser falsos positivos del robot, suele pasar que marca como noindex algunas páginas en la primera visita, pero luego se acomoda solo y más si es un sitio nuevo, dale un par de días más y nos comentas.
 
Todo lo que han escrito los compañeros es lo que yo te diría como primeras instancias.

Lo que no te han preguntado y yo te pregunto es: Tienes un archivo robots.txt ? Si lo tienes, quizás hay alguna directiva ahí de "noindex".

De todas maneras es muy nuevo el sitio, yo le daría un poco de tiempo antes de sacar conclusiones
Cuando estaba leyendo pensé en recomendar lo que le habían comentado y luego considerare lo del robots.txt, pero ya el amigo @Aaron Lennon te hizo la acotación.

También espera unos días a ver si se resuelve solo si da el caso de que todo indica a que los motores de búsqueda pueden detectar tu web.
 
Lo más práctico es usar la opción de "Inspeccionar url" en la Search Console, seguramente te dirá que la url no está en Google y te aparecerá el botón de "Probar url publicada" y ahí te dirá si hay algún problema con la url.
En caso de no haberlo, es simplemente cuestión de esperar, pulsar el botón de "Solicitar indexación", o ponerle más enlaces para que la indexe antes.


indexar.webp
 
Para indexarla tienes que:

1. Crear un sitemap con tu plugin seo

2. Crear un robots que incluya la lectura del sitemap por las arañas

3. Crear una cuenta en search console y verificar la web

4. Enviar el sitemap

5. Enviar las urls una a una a indexar y después darle a probar url

Saludos
 
2. Crear un robots que incluya la lectura del sitemap por las arañas
Que tal! Disculpa, pero a que te refieres con eso? Hasta donde yo sabía, hay que crear el sitemap y enviarlo a la Search console, nada más. Agradezco tu respuesta
 
Que tal! Disculpa, pero a que te refieres con eso? Hasta donde yo sabía, hay que crear el sitemap y enviarlo a la Search console, nada más. Agradezco tu respuesta
Bueno en otro caso podrías usar la Api de Google para enviar las URL a indexar un poco más rápido, con el indexado de RankMath
 
Bueno en otro caso podrías usar la Api de Google para enviar las URL a indexar un poco más rápido, con el indexado de RankMath
Usar la API de Google para indexar es a lo que el usuario de arriba se refiere con "Crear un robots que incluya la lectura del sitemap"??
 
Usar la API de Google para indexar es a lo que el usuario de arriba se refiere con "Crear un robots que incluya la lectura del sitemap"??
no ,pero como dije "en otro caso" ,me referia a que puedes indexar de otra manera, pero creo que el usuario se refiere al archivo "robots.txt" que ahi se incluye tambien algunas veces el sitemap y pues google verifica ciertas accesos y peticiones
 
no ,pero como dije "en otro caso" ,me referia a que puedes indexar de otra manera, pero creo que el usuario se refiere al archivo "robots.txt" que ahi se incluye tambien algunas veces el sitemap y pues google verifica ciertas accesos y peticiones
aah okey gracias Andre. Y por último, es más rápido a través de la API de Google entonces? Que hacerlo a través del sitemap de robot.txt?
 
aah okey gracias Andre. Y por último, es más rápido a través de la API de Google entonces? Que hacerlo a través del sitemap de robot.txt?
bueno a mi si me ha funcionado mas rapido la indexación con la API que con la indexacion normal,por otra parte el robots.txt puede demorar un poco mas,lo digo porque al resolver un problema del robots.txt se demoro un poco mas :/ ,bueno eso a sido mi experiencia
 
@jg4079751 @Andre3600 Gracias a ambos. Me queda una duda. Una vez que envió el sitemap ya no lo tengo que volver a enviar jamás? Es decir, se actualiza automáticamente a medida que realizo cambios en la web?
 
Atrás
Arriba