piano Muchas gracias por su respuesta, yo formule la pregunta anterior por que yo siempre cada vez que publico la indexo manualmente desde el search console pero hace 2 días me encontré a unas personas que son web máster en toda regla y cada uno maneja de 10 paginas o más y básicamente en todas con un mínimo de 3500 urls indexadas y webs de distintas temáticas.
Ahora yo que soy un noob, hablando con esas dos personas me comentan lo anteriormente dicho, ahora leyendo su respuesta la cual agradezco enormemente entiendo que si publicas 5 posts diarios y los indexas no pasa nada, ahora si tienes un equipo que publica 40 entradas en un día lo que conlleva a 1,200 por mes y todo lo indexas manual pues en un modo rompes el bot de google.
En mi caso que publico 5 entradas diarias no hay problema verdad?
De nada [MENTION=188193]z0n4z[/MENTION], siempre es un placer ayudar en lo que se pueda.
🙂
Realmente no es como mencionas. Tal vez no me expliqué del todo bien, voy a intentarlo de nuevo:
Las cantidades de URL's que indicas son muy bajas. Una página con 4000 URL's es una página relativamente pequeña. Para que te hagas una idea mi sitio principal tiene cerca de medio millón de páginas indexadas y tampoco se puede decir que sea una página especialmente grande. Sobre todo cuando se trabajan con múltiples idiomas las URL's se multiplican exponencialmente.
Una página de anuncios clasificados, por ejemplo, si es medianamente grande puede tener sin problema varios millones de URL's indexadas y si además es accesible en varios idiomas puedes todavía más así que una web con 4000 URL's indexadas para Google es una microweb y como tal la tratará.
Yo desconozco cual son los recursos que el bot de Google asigna a cada sitio web. Lo que si que tengo claro es que tiene recursos más que suficientes para atender todo lo que le mandes, sea lo que sea. No se va a saturar porque le envíes 100.000 urls para indexar ni nada parecido. El bot de Google economiza su frecuencia de rastreo no sólo para optimizar sus propios recursos sino que principalmente lo hace por ti, para no sobrecargar los recursos de tu máquina con rastreos innecesarios.
Es por eso por lo que Google te da la opción desde Search Console para bajar la frecuencia de rastreo. Si solo actualizas el contenido una vez al mes ¿ para que va a estar leyéndolo Google todos los días y consumiendo tus recursos sin razón? ¿ es lógico, no?
Ahora, aclarado esto, volvamos al punto de partida:
Imaginemos que tú tienes una web con 4.000 URL's indexadas y que la actualizas una vez al día. Imaginemos que Google bot ya te ha visitado varias veces y ha determinado que, por el tipo y tamaño de tu web, con rastrearte una vez al día es suficiente. Pongamos también para el ejemplo que Google decide que te rastreará todos los días a las 17:00 GMT porque es el momento en el que la red de tu zona tiene menos carga de tráfico.
Ahora imaginemos que tú decides, cada mañana a las 09:00 GMT enviar manualmente las URL's nuevas que has publicado. Google rastreará las nuevas URL's a las 09:00 cuando se lo pidas y a la vez realizará una lectura nueva del sitio entero.
¿ tú que crees que ocurrirá cuando lleguen las 17:00 de la tarde? Yo no lo tengo claro, sólo estoy haciendo especulaciones, pero pienso que probablemente el bot de Google ya no te visite ese día. Y creo que es lo lógico, porque ya lo ha hecho y ya ha cumplido con la frecuencia de rastreo que tiene programada para las características de tu sitio web.
Si repetimos este mismo proceso todos los días al final el robot dejará de visitarte de la forma en que lo estaba haciendo pero no porque te penalice, simplemente se adaptará a las indicaciones nuevas que tú le estás proporcionando. Si tú personalmente añades las URL de forma manual y lo haces con la periodicidad correcta... ¿ para que va a gastar recursos en vano?
Y entiendo que esto es aplicable para aquellos que actualizan 5 páginas al día pero también para los que actualizan 5.000.
Insisto en que todo esto no son más que meras especulaciones que hago en base a mi experiencia. Google es muy reservado en todo lo que respecta a sus procesos de indexación, tan sólo podemos sacar conclusiones de forma empírica.
Lo que si te puedo decir con total seguridad son dos cosas:
1.- El bot de Google nunca dejará de visitarte salvo que tú se lo impidas a través del robots.txt o por otros medios. Tal vez cambiará su frecuencia o su horario pero si o si te seguirá visitando. Incluso cuando tu web es penalizada y deja de indexarse el robot te sigue visitando. Así que veo muy poco probable que deje de hacerlo porque tú indexes contenido manualmente lo hagas con la frecuencia con que lo hagas.
2.- 5 páginas al día, así como 50 páginas o 500 páginas son cantidades muy bajas para Google. Eso no marcará la diferencia en ningún caso.
Con Google es muy difícil sacar conclusiones sobre su comportamiento. Con frecuencia suelen ir dos o tres pasos por delante nuestro. Tal vez si de forma sistemática solicitas indexaciones manuales y de forma sistemática su algoritmo detecta que esas indexaciones son innecesarias o abusivas quizás consigas modificar su comportamiento pero lo difícil será poder sacar conclusiones después. Ten en cuenta que "GoogleBot" se identifica porque voluntariamente desea hacerlo. Pero ese no es el único bot que utiliza Google ni mucho menos. Tiene muchos, unos se identifican y otros no. Tal vez tus colegas italianos forzaron mucho la máquina y Google detectó algún tipo de actividad inusual en su comportamiento y ahora en vez de visitarles "GoogleBot" les visita "4hefcneBot" y ellos ni se han dado cuenta. Lo que si te puedo garantizar es que por indexar todos los días 5 páginas manualmente, o 500, Google no dejará de indexarte ni mucho menos. :encouragement: