¿Google detecta contenido no indexado aunque lo use en mi web?

  • Autor Autor Ging
  • Fecha de inicio Fecha de inicio

Ging

Delta
Social Media
Verificado por Whatsapp
Si doy no index a una entrada , aun google la detecta?

Lo que pasa es que quiero llenar mi web de contenido copiado , y quiero hacer que google no las mire ni las tome en cuenta para nada ya que el contenido es copiado.

Obvio solo indexare el contenido original:encouragement:

PD: escribí mal el titulo :c
 
NO INDEX :distant:
 
NO = No

Index = Index.

No index = No indexar :encouragement:

Creo que no me explique .

se que si esta en noindex no se añade a los motores de busqueda , pero mi duda es que si esta en noindex google a un podría detectar el contenido .(Detectar que tengo contenido copiado en el site) mediante robot o algo a si.
 

AHHHH! Ya, ahora te entendí.

Pues eso se soluciona con el robots.txt Simplemente añade cada pagina (y las fotos, etc) con una directiva disallow, para los bots de google (o directamente a todos los user-agent así ningun motor accede).

Esto tampoco es algo 100% efectivo, si no que el robots.txt sugiere, no obliga. Realmente no podes bloquear (salvo que banees la IP) un robot. Pero google obedece siempre el robots.txt :encouragement:
 
Con no index Google efectivamente detecta la entrada ya que es necesario que la explore para identificar la etiqueta no index. En tu caso, cómo te ha indicado @ctsnotcs deberías usar la directiva disavow en robots.txt, para no hacerlo manualmente podrías usar una URL patrón para las entradas copiadas y bloquear todas las URL que cumplan con dicho patrón. Por otra parte, seguir o no está directiva es opcional para los buscadores.

Quizás lo mejor sea usar una única web para hacer contenido copiado, si es lo que deseas hacer, aunque nada como el contenido original.

Saludos

Enviado mediante Tapatalk
 

Ok :encouragement:

Lo que pasa es que es una web tube y esta emepzando a crecer rapido ya que trato de añadir texto optimizado para long tail .
A un a si tiene muchos usuarios que vuelven al sitio , pero por el mismo motivo de que no puedo añadir muchos post optimizados hace que en mi sitio se añaden 3 videos diarios , lo cual creo que es poco tomando en cuenta que mucha gente vuelve para cosas diferentes y es algo que no puedo hacer.

Como uso wp-script puedo traer mucho contenido ( Solo cambiaria el titulo) y a un a si solo seria un post con un h1 y un video lo cual para seo creo que es pesimo , por eso busco esconder ese tipo de entradas que solo es para rellenar 😕.

- - - Actualizado - - -
[MENTION=111024]ramones33[/MENTION] , [MENTION=173661]csnotcs[/MENTION]

Mis url's son asi

sitiio.com/nombre de categoria / nombre de post

creo una categoría llamada no y mi url de todo los post seria a si
sitio.com/no/nombre de post

entonces si añado
Disallow: /no/

estaría recomendando al robots que no vean las url que tengan la categoría no ? y solo faltaría que la tomen en cuenta .estoy bien? .
 
Última edición:

No. Porque /no/ deberia ser un directorio. Solamente será efectivo si pones URL por URL.
 
Yo pienso lo contrario, que es correcto, pero debería ser mejor hacerlo así:

Disallow: /no

Aunque no lo he hecho me baso en lo siguiente:

*DisallowThe value of this field specifies a partial URL that is not to be visited. This can be a full path, or a partial path; any URL that starts with this value will not be retrieved. For example,*Disallow: /helpdisallows both*/help.html*and/help/index.html, whereasDisallow: /help/*would disallow/help/index.html*but allow*/help.html.*

Tomado de

The Web Robots Pages

Saludos