Z
z0n4z
Beta
Redactor
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
que se indexe sola es mucho mejor
[MENTION=188193]z0n4z[/MENTION] lo mejor es que se indexe sóla, puedes forzar esa indexación haciéndole algún enlace desde comentarios o desde otros foros, por ejemplo. Pero no es nada recomendable indexar manualmente, ya tarde 1 semana o 1 mes, al final indexará naturalmente.
[MENTION=152963]advisertutos[/MENTION] ¿que tiene que ver search console para indexar una url? No sé donde has leído o te han dicho eso, pero no será la primera vez que monto una web nueva y a las pocas semanas ya está indexada sin tener que darla de alta en ningún sitio.
pues si no tienes tu pagina agregada en Google Search Console no va aparecer indexada o no es así?
[MENTION=152963]advisertutos[/MENTION] Cuando el googlebot pasa por tu web la indexa, de echo no hace falta ni el sitemap pero ya esto es otra historia. A lo que yo me referia es indexar url por url manualmente con el search console en la parte de visualizar como google, pero escuchando a los amigos anteriores y los foros de habla Italiana ya me queda claro que es mejor solo publicar y que google la indexe sola ya que de esta manera cada vez la visita del googlebot sera mas frecuente.pues si no tienes tu pagina agregada en Google Search Console no va aparecer indexada o no es así?
[MENTION=152963]advisertutos[/MENTION] Cuando el googlebot pasa por tu web la indexa, de echo no hace falta ni el sitemap pero ya esto es otra historia. A lo que yo me referia es indexar url por url manualmente con el search console en la parte de visualizar como google, pero escuchando a los amigos anteriores y los foros de habla Italiana ya me queda claro que es mejor solo publicar y que google la indexe sola ya que de esta manera cada vez la visita del googlebot sera mas frecuente.
Gracias a todos los que me respondieron =D
[MENTION=152963]advisertutos[/MENTION] No, para nada. De echo es lo que se tiene que hacer lo que pasa es que mi pregunta desde el principio fue otra xDD.yo siempre agrego mi dominio y luego envio un sitemap eso estam mal?
[MENTION=152963]advisertutos[/MENTION] No, para nada. De echo es lo que se tiene que hacer lo que pasa es que mi pregunta desde el principio fue otra xDD.
advisertutos Cuando el googlebot pasa por tu web la indexa, de echo no hace falta ni el sitemap pero ya esto es otra historia. A lo que yo me referia es indexar url por url manualmente con el search console en la parte de visualizar como google, pero escuchando a los amigos anteriores y los foros de habla Italiana ya me queda claro que es mejor solo publicar y que google la indexe sola ya que de esta manera cada vez la visita del googlebot sera mas frecuente.
Gracias a todos los que me respondieron =D
[MENTION=43537]piano[/MENTION] Muchas gracias por su respuesta, yo formule la pregunta anterior por que yo siempre cada vez que publico la indexo manualmente desde el search console pero hace 2 días me encontré a unas personas que son web máster en toda regla y cada uno maneja de 10 paginas o más y básicamente en todas con un mínimo de 3500 urls indexadas y webs de distintas temáticas.Yo discrepo con lo dicho hasta ahora.
Indexar URL's de forma manual en algunas ocasiones es aconsejable y en otras incluso necesario.
El hecho de que tú indexes manualmente una serie de URL's no tiene nada que ver con que Google bot deje de visitarte... ¿ por qué habría de hacerlo?
La frecuencia de indexación es algo que se puede ajustar manualmente desde Search Console independientemente de las URL's que decidamos indexar de forma manual.
Cuando Google bot visita nuestro sitio decide cual son las páginas que deben ser indexadas y cuales no. También decide, de acuerdo a la frecuencia de actualización del sitio, cual es la frecuencia con la que el bot debe visitarnos en el futuro.
Google bot tiene fallos a la hora de decidir cual son las páginas que deben ser indexadas y cuales no. Por norma general descarta correctamente las carpetas del sistema y ese tipo de datos pero, muy frecuentemente, también descarta datos que sí que deberían ser indexados. Para eso está esa herramienta, para que le ayudemos.
Yo creo que a todos nos ha pasado... tenemos una web con 4.000 páginas de contenido válido y cuando revisamos Search Console vemos que ha indexado 3.800 o 3.900 pero, sin saber la razón, algunas páginas válidas decide no indexarlas. En esos casos, además de revisar los sitemap, es conveniente indexar las páginas de forma manual para indicarle a Google que esas páginas si que deben ser indexadas.
Otra cosa será que nos haga caso o no nos lo haga. Pero si enviamos esas 100 URL's para indexación, tal vez nos deje de nuevo fuera 50 páginas, pero otras 50 habremos conseguido indexarlas.
La propia herramienta tiene límites de uso, precisamente porque es una herramienta útil que funciona correctamente y no debemos abusar de ella. Yo no se cual habrá sido el problema que habrán tenido tus colegas italianos, tal vez si haces un uso abusivo de la misma y todos los meses solicitas nueva indexación desde el root del sitio, al final Google se acaba cansando y baja la frecuencia de actualización de su Google bot en nuestro sitio. Es de suponer que cada uno de nosotros tendremos unos recursos asignados y si abusamos de ello Google lo recortará por otro lado pero si haces un uso correcto de la herramienta te aseguro que no tendrás ningún problema y es muy útil para ayudarle al bot de Google a entender nuestro sitio y como debe indexarlo.
piano Muchas gracias por su respuesta, yo formule la pregunta anterior por que yo siempre cada vez que publico la indexo manualmente desde el search console pero hace 2 días me encontré a unas personas que son web máster en toda regla y cada uno maneja de 10 paginas o más y básicamente en todas con un mínimo de 3500 urls indexadas y webs de distintas temáticas.
Ahora yo que soy un noob, hablando con esas dos personas me comentan lo anteriormente dicho, ahora leyendo su respuesta la cual agradezco enormemente entiendo que si publicas 5 posts diarios y los indexas no pasa nada, ahora si tienes un equipo que publica 40 entradas en un día lo que conlleva a 1,200 por mes y todo lo indexas manual pues en un modo rompes el bot de google.
En mi caso que publico 5 entradas diarias no hay problema verdad?
Muy cierto piano, pero el problema es que z0n4z no ha dado una información más concreta a que tipo de urls estaba indexando, viendo el tema que se trata de una web propia y de urls pertenecientes a una misma web, veo innecesario (siendo webs pequeñas) andar indexando a mano, con tener añadido el sitemap en search console y un simple plugin (si es wordpress) que haga ping cada vez que publicamos algo, sobra para que esas urls se acaben indexando tarde o temprano.
Mis respuestas iban más dirigidas hacia aquellos enlaces que creamos y que muchos recomienda indexar manualmente o haciendo uso de indexadores, en estos casos, yo bajo propia experiencia no aconsejo para nada forzar un indexado de estas urls.
Utilizamos cookies y tecnologías similares para los siguientes fines:
¿Aceptas las cookies y estas tecnologías?
Utilizamos cookies y tecnologías similares para los siguientes fines:
¿Aceptas las cookies y estas tecnologías?