S
sergulath
No recomendado
Verificado por Whatsapp
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
Son archivos traducidos a mano. Segun la docu si es contenido duplicado te dice "no indexado por duplicado.Hola. No entiendo lo de directiva noindex, se supone que vos no le diste ninguna directiva, ¿no? Y los artículos que subiste son originales al 100%, porque tal vez puede ser eso (los toma como contenido duplicado). Otra cosa no se me ocurre... tal vez otra persona pueda ayudar más.
Esa opcion esta desactivada.has enviado el sitemap para que los robost de google lo rastreen ?
Ver el archivo adjunto 786630
si lo tienes activado,desactiva esta opcion
por otra parte talvez se esta demorando en rastrear, esto dice google tambien
Ver el archivo adjunto 786634
Claro, entonces capaz es demasiado pronto y no queda otra opción que esperar. Lo de tratar de mandar el sitemap es otra. Vamos a ver si otra persona puede ayudarte, me sirve también aprender por si en un futuro me sucede. Suerte y ojalá lo soluciones. 🙌🏼Son archivos traducidos a mano. Segun la docu si es contenido duplicado te dice "no indexado por duplicado.
Revise el codigo fuente de las entradas y esta con Index, no con nonindex:
<meta name='robots' content='index, follow, max-image-preview:large, max-snippet:-1, max-video-preview:-1' />
Eso no revise, ahora voy a revisar.Todo lo que han escrito los compañeros es lo que yo te diría como primeras instancias.
Lo que no te han preguntado y yo te pregunto es: Tienes un archivo robots.txt ? Si lo tienes, quizás hay alguna directiva ahí de "noindex".
De todas maneras es muy nuevo el sitio, yo le daría un poco de tiempo antes de sacar conclusiones
Cuando estaba leyendo pensé en recomendar lo que le habían comentado y luego considerare lo del robots.txt, pero ya el amigo @Aaron Lennon te hizo la acotación.Todo lo que han escrito los compañeros es lo que yo te diría como primeras instancias.
Lo que no te han preguntado y yo te pregunto es: Tienes un archivo robots.txt ? Si lo tienes, quizás hay alguna directiva ahí de "noindex".
De todas maneras es muy nuevo el sitio, yo le daría un poco de tiempo antes de sacar conclusiones
Que tal! Disculpa, pero a que te refieres con eso? Hasta donde yo sabía, hay que crear el sitemap y enviarlo a la Search console, nada más. Agradezco tu respuesta2. Crear un robots que incluya la lectura del sitemap por las arañas
Bueno en otro caso podrías usar la Api de Google para enviar las URL a indexar un poco más rápido, con el indexado de RankMathQue tal! Disculpa, pero a que te refieres con eso? Hasta donde yo sabía, hay que crear el sitemap y enviarlo a la Search console, nada más. Agradezco tu respuesta
Usar la API de Google para indexar es a lo que el usuario de arriba se refiere con "Crear un robots que incluya la lectura del sitemap"??Bueno en otro caso podrías usar la Api de Google para enviar las URL a indexar un poco más rápido, con el indexado de RankMath
no ,pero como dije "en otro caso" ,me referia a que puedes indexar de otra manera, pero creo que el usuario se refiere al archivo "robots.txt" que ahi se incluye tambien algunas veces el sitemap y pues google verifica ciertas accesos y peticionesUsar la API de Google para indexar es a lo que el usuario de arriba se refiere con "Crear un robots que incluya la lectura del sitemap"??
aah okey gracias Andre. Y por último, es más rápido a través de la API de Google entonces? Que hacerlo a través del sitemap de robot.txt?no ,pero como dije "en otro caso" ,me referia a que puedes indexar de otra manera, pero creo que el usuario se refiere al archivo "robots.txt" que ahi se incluye tambien algunas veces el sitemap y pues google verifica ciertas accesos y peticiones
bueno a mi si me ha funcionado mas rapido la indexación con la API que con la indexacion normal,por otra parte el robots.txt puede demorar un poco mas,lo digo porque al resolver un problema del robots.txt se demoro un poco mas :/ ,bueno eso a sido mi experienciaaah okey gracias Andre. Y por último, es más rápido a través de la API de Google entonces? Que hacerlo a través del sitemap de robot.txt?
Que tal! Disculpa, pero a que te refieres con eso? Hasta donde yo sabía, hay que crear el sitemap y enviarlo a la Search console, nada más. Agradezco tu respuesta
Utilizamos cookies y tecnologías similares para los siguientes fines:
¿Aceptas las cookies y estas tecnologías?
Utilizamos cookies y tecnologías similares para los siguientes fines:
¿Aceptas las cookies y estas tecnologías?