Problemas desindexación blog en Google, ayuda requerida.

  • Autor Autor Luciana95
  • Fecha de inicio Fecha de inicio
Luciana95

Luciana95

Dseda
Verificación en dos pasos activada
Un blog que venía super bien indexando, me lo hackean, cambio todo el wordpres a nuevo. Antes tenía un robots.txt, en la nueva instalacion no se lo pongo y me sale en Search console que falta el robots.txt. Lo vuelvo a subir y me está desindexando las páginas no sé más que hacer. Ah dice search console que tiene una etiqueta de NoIndex el blog pero esto no es así, o al menos no la encuentro, pero ni en el robots ni en el htaccess la tiene.

¿Qué hago? Me ayudas gran @Cicklow ?
 
Entra en una de las entradas que están desindexación. En PC. Presiona Control U para ver código fuente. Luego Control F para hacer una búsqueda en el código. Escribe "index" y ahi te mostrara la linea del meta. Verifica que tengas correctamente: "meta name='robots' content='index, follow,"

Si lo tienes en "nofollow". Entras en la entrada que muestre ese meta y sin hacer nada de cambios, presionas el botón actualizar de la entrada y cambiara a "follow".

Luego tendrás que hacerlo entrada por entrada. No conozco una solución automatizada para todo. Tampoco sé el origen del error.
 
mira si verdaderamente tiene la etiqueta noindex en cualquier pagina
 
<meta name='robots' content='index, follow, max-image-preview:large, max-snippet:-1, max-video-preview:-1' />

una de las desindexadas

Los del VPS me dicen que haga una nueva instalacion de wordpress nueva, pero quiero saber el origen de esto, nunca me pasó

Por suerte no es un blog que deje ganancias todavía, pero venía creciendo espectacular!!
 
Última edición:
Será un BUG temporal.
 
Probablemente, no sea necesaria una reinstalación.

Revisa si la opción "Disuade a los motores de búsqueda de indexar este sitio" está habilitada. De ser así, desactivala.
Puedes encontrarla en "Ajustes/Lectura"

1687910695592.webp


Si luego de guardar, la etiqueta "noindex" sigue ahí, puede deberse a que esté cacheada la pagina (prueba en modo incognito), o probablemente, tu theme tenga alguna opción similar a la anterior.

Si tienes algún plugin para SEO, tambien puedes revisar la configuración.
 
Probablemente, no sea necesaria una reinstalación.

Revisa si la opción "Disuade a los motores de búsqueda de indexar este sitio" está habilitada. De ser así, desactivala.
Puedes encontrarla en "Ajustes/Lectura"

Ver el archivo adjunto 1043205

Si luego de guardar, la etiqueta "noindex" sigue ahí, puede deberse a que esté cacheada la pagina (prueba en modo incognito), o probablemente, tu theme tenga alguna opción similar a la anterior.

Si tienes algún plugin para SEO, tambien puedes revisar la configuración.
Hola! Ya revisé estos puntos me falta el incógnito. Está todo OK. Quien dice el noindex es search console no yo.
 
Será un BUG temporal.
No creo porqu eviene de hace días eran 184 páginas inexadas y hoy van 6 😥 antes de ayer 8 ..... y así... nunca me pasó. Incluso saqué el anterior sitemap y subí uno nuevo y no indexa las páginas... qué hagooo ???
 
@Luciana95 entonces parece algo mas raro todavia. Revisa las versiones HTTP/HTTPS que estés haciendo bien la redirección y no sea que google te saca el HTTPS para indexar el HTTP. O sin WWW para meter con WWW.

Revisa que redireccion este bien. Lo otro que se me ocurre, es que al ser un blog que fue hackeado, hagas búsqueda de incógnito y presiones alguna url de tu blog, a ver si redirecciona o algo que hace que google te desindexe.
 
Yo tena un robots.txt que decía

Crawl delay: 10
Ahora parece que sale un signo naranja en el testeo de robots en search console que dice que Gogole ignora esa instrucción.

Lo saqué a ver qué pasa, debería funcionar.
 
Hola! Ya revisé estos puntos me falta el incógnito. Está todo OK. Quien dice el noindex es search console no yo.
Puedes revisar el archivo robots.txt?

Si encuentras alguna línea que diga "Disallow: " puedes comentarla (con el # al inicio) o eliminarla.

Te dejo este link para probar la propia herramienta de google:

 
Puedes revisar el archivo robots.txt?

Si encuentras alguna línea que diga "Disallow: " puedes comentarla (con el # al inicio) o eliminarla.

Te dejo este link para probar la propia herramienta de google:

Hola gracias!! No siemplemente decía craw delay ahora lo saqué.... además dice Search console que tiene las páginas del blog en su memoria (obvio porque estaban indexadas) pero no las indexa "para no cargar mi servidor"....cualquiera!!! Debe ser por el craw delay asi que lo eliminé.

Lo cambié por esto que lo vi en la sección explicativa de robots.txt de la web de Semrush.

User-agent: *

Allow: /

Sitemap: https://www.blog.com/sitemap_index.xml
 
El crawl delay es el tiempo que le pedis a los buscadores que tarden en recorrer las paginas y post del sitio.
No debería influir en "no index", salvo que si es excesivo, en vez de recorrer X paginas en Y tiempo, tarde mucho mas.

En Search Console, revisa la opción "URL inspection" y pon alguna URL de tu sitio que esté reportada con error.

1687958231006.webp


Ahí vas a poder "forzar" el analisis y te va a indicar motivos por el cual no está indexada.
Si todo va bien, comenzará a reindexar de nuevo
-


En cuanto a tu nuevo robots.txt, estas diciendo que todos los buscadores (que respeten robots.txt) pueden recorrer todo el sitio.
Yo no tengo craw delay establecido, que Google haga lo que considere.

En mi caso, hay páginas que evito mostrar, aunque deberías analizar si aplica en tu caso o si es lo que necesitas:

Insertar CODE, HTML o PHP:
User-agent: *
Disallow: /contacto
Disallow: /terminos-y-condiciones
Disallow: /quienes-somos
Disallow: /sin-categoria/
Disallow: /wp-admin

-

En cuanto al tema hackeos (que ababo de darme cuenta), ¿todos los plugins están actualizados?
¿Qué tipos de hackeo estás teniendo? ¿Qué medida tomaste?
 
Gracias! Si ya sé lo que es crawl delay yo misma lo incorporé. Pero es la resupuesta que me da search console, más tarde paso capturas. Con respecto al hackeo ya fue, incorporaron muchas carpetas y archivos con malware. Ahora como expliqué antes hay una nueva instalación de wordpress libre de virus. Las páginas están en search console, pero no las indexa por ahora. Me fijé en mis otros blogs que funcionan perfecto y ninguno tiene el robots con crawl delay.
Ahora lo hice asi a ver si indexa rápido.

Insertar CODE, HTML o PHP:
User-agent: *

Allow: /

Sitemap: https://www.blog.com/sitemap_index.xml
 
Última edición:
al analizar una url en search console que te aparece ¿con etiqueta no index?
 
Revisa wp-config y wp-settings, no vaya ser que te han hackeado e introducido algun codigo extraño que este haciendo esos cambiso en tu web.
 
Actualizo:
Esta noche recibo este mensaje de Search Console:

No se han podido corregir problemas de Indexación de páginas del sitio web https://www.blog.com/
28 jun 2023 - Indexación de páginas

Has solicitado que Google compruebe que los problemas de Indexación de páginas del sitio web https://www.blog.com/ se hayan corregido. Se solicitó que se corrigiera el siguiente problema: "Rastreada: actualmente sin indexar".

No obstante, hemos detectado que el problema sigue afectando a algunas páginas.

Para revisar todos los detalles del progreso de validación y consultar cómo corregir los problemas que quedan, haz clic en el enlace que se muestra a continuación.


Este es el error: (de 243 páginas que siempre tuvo indexadas desde que abrí el blog en 2015)

Rastreada: actualmente sin indexar​

Google ha rastreado la página, pero no la ha indexado. Es posible que se indexe más adelante; no tienes que volver a solicitar que se rastree esta URL.

Acto seguido me pongo a investigar, como me aconsejó @Jarem los archivos wp-config.php y wp-settings.php El primer veo que tiene una modificación del 25/6 y ni lo toqué ese día. Cambio ambos por dos archivos nuevos copiados de otro blog que funciona bien.
Voy a la base de datos y Yoast creó un montón de tablas, una de ellas llamada "indexable" que no sé para qué es y que tiene la mayor parte de urls del blog. Decido eliminar el plugin y todas las tablas de Yoast de la base de datos a ver si no está bloqueando urls. Pero estaba bien confgurado.
Acto seguido, agrego el plugin Google Sitemaps al blog e indexo el 2do sitemap en Search Console.

Veremos que pasa ahora, que está todo fino, igual que en los otros blogs 👍👍
 
El crawl delay es el tiempo que le pedis a los buscadores que tarden en recorrer las paginas y post del sitio.
No debería influir en "no index", salvo que si es excesivo, en vez de recorrer X paginas en Y tiempo, tarde mucho mas.

En Search Console, revisa la opción "URL inspection" y pon alguna URL de tu sitio que esté reportada con error.

Ver el archivo adjunto 1043469

Ahí vas a poder "forzar" el analisis y te va a indicar motivos por el cual no está indexada.
Si todo va bien, comenzará a reindexar de nuevo
-


En cuanto a tu nuevo robots.txt, estas diciendo que todos los buscadores (que respeten robots.txt) pueden recorrer todo el sitio.
Yo no tengo craw delay establecido, que Google haga lo que considere.

En mi caso, hay páginas que evito mostrar, aunque deberías analizar si aplica en tu caso o si es lo que necesitas:

Insertar CODE, HTML o PHP:
User-agent: *
Disallow: /contacto
Disallow: /terminos-y-condiciones
Disallow: /quienes-somos
Disallow: /sin-categoria/
Disallow: /wp-admin

-

En cuanto al tema hackeos (que ababo de darme cuenta), ¿todos los plugins están actualizados?
¿Qué tipos de hackeo estás teniendo? ¿Qué medida tomaste?
Ya pasó fue en marzo-abril
 
El crawl delay es el tiempo que le pedis a los buscadores que tarden en recorrer las paginas y post del sitio.
No debería influir en "no index", salvo que si es excesivo, en vez de recorrer X paginas en Y tiempo, tarde mucho mas.

En Search Console, revisa la opción "URL inspection" y pon alguna URL de tu sitio que esté reportada con error.

Ver el archivo adjunto 1043469

Ahí vas a poder "forzar" el analisis y te va a indicar motivos por el cual no está indexada.
Si todo va bien, comenzará a reindexar de nuevo
-


En cuanto a tu nuevo robots.txt, estas diciendo que todos los buscadores (que respeten robots.txt) pueden recorrer todo el sitio.
Yo no tengo craw delay establecido, que Google haga lo que considere.

En mi caso, hay páginas que evito mostrar, aunque deberías analizar si aplica en tu caso o si es lo que necesitas:

Insertar CODE, HTML o PHP:
User-agent: *
Disallow: /contacto
Disallow: /terminos-y-condiciones
Disallow: /quienes-somos
Disallow: /sin-categoria/
Disallow: /wp-admin

-

En cuanto al tema hackeos (que ababo de darme cuenta), ¿todos los plugins están actualizados?
¿Qué tipos de hackeo estás teniendo? ¿Qué medida tomaste?
Está bueno tu robots.txt, voy a hacer lo mismo disallow en las carpetas interiores de todos mis blogs. Algo así pasó se metieron en el blog y subiernos muchas carpetas con malware pero ya hice hace rato una instalación nueva de WP.
 
Entra en cada carpeta y verifica si tienes archivos escondidos con un punto al comienzo del nombre del archivo.
Los hackers suben virus de esa manera.
Seria bueno que incluyas el url de tu blog en este post para ayudarte de mejor manera. O sino, envíalo por privado.
 
Atrás
Arriba