Un experimento... Algo extremo? no creo.... vermos..

  • Autor Autor brunouy
  • Fecha de inicio Fecha de inicio
B

brunouy

Beta
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
Estimados, pues bien, quien sabe lo que paso a contarles probablemente alguno ya lo ha hecho anteriormente.


Hoy en el afán de mejorar el posicionamiento y quien sabe salir de penalización, decidí enfocarme en el tema Calidad de Contenido.

Se me ocurrió la idea de ir a las estadísticas de todos los posts y ver, según los períodos y tráficos cuales de ellos podrían estar ofreciendo contenido de baja calidad.

Luego pensé... esos posts con pocas visitas además de bajo contenido pueden tener algún error de código, mi sitio tenía más de 17.000 posts, no voy a revisarlos uno por uno, sería una locura.
Pero también cada post tiene o NO sus respectivos backlinks y también pensé... si no lo tienen hoy x hoy casi no existen y si tienen... son de muy mala calidad, cosa que tambien me perjudica.


En devinitiva a base de clics elimine un poco más del 10% de todos los posts del web y me lleve la sorpresa que muchos tenían unicamente 7 visitas, muchos no llegaban a 20 y así sucesivamente, partiendo de la base que el web ha tenido una cifra cercana a los 15.000.000 de visitas, estos posts por una razón u otra no contribuyen en nada al web en su conjunto.

Pues bien, luego de eliminados generé el sitemap y lo envié, ahora me resta esperar y var cual es el resultado...
 
y cuál esperas que sea el resultado? que te despenalicen por haber eliminado 1700 posts que te han generado poco tráfico?
 
Fueron 1900, en realidad, lo evalúo como contenido basura y supongo que Panda eso a esta altura lo sabe.
también pueden tener algún error de código y así retrasar su carga y perjudicar al web en su conjunto o peor, agregarle basura al rastreo.

El tema es que los posts no los hago yo, hay cerca de 30 colaboradores que publican en el web y en eso no tengo control....

Además, creo que esos posts tienen una mochila bastante grande con Backlinks de baja autoridad, los que influyen negativamente y si todo o algo de eso ocurre hay posibilidades de salir de la penalización ya que no es manual es algoritmica.
 
Ojalá te funcione, así todos podremos entender un poco más la "mentalidad" de Google tras Panda y Penguin, porque lo que soy yo, estoy cansado de hacer pruebas a ver cómo logro despenalizar algunos sitios y nada me funciona. :suicide:
 
jeje somos 2 entonces.... mira que he hecho cosas... me he transformado en una MONJA DEL SEO y nada...
 
Nos cuentas como término si te funciono o no
 
Apenas puedas cuenta como te fue 😉
 
Si, ese es el gran tema, no se cuanto demoran los algoritmos, no se cuando se eliminaran los backlinks... etc...

Pero tenganlo presente que los mantendré informados... :encouragement:
 
Segun en el foro de Webmasters de Google, brunouy No esta muy equivocado con lo que hizo. Ojala le funcione.
A mi me habían recomendado no que borre posts antiguos si no, que los modifique "A Google le gusta" comentaron
Saludos :encouragement:
 
Interesante... Estaré atento a los resultados.
 
Efectivamente el truco esta en cambiar esos posts a mejor, no en eliminarlos ya que estas construyendo en su lugar errores 404.

Enviado desde mi Galaxy Nexus
 
Sip, interesante aunque como dicen justo arriba 😱 yo hubiera optado por potenciar los posts pero en tu caso son demasiados :topsy_turvy:
 
Estoy de acuerdo en que se debería mejorar el contenido, pero hay 2 inconvenientes en este caso:

1) Son 1900 posts, si lo hago, tendré que pasarles esa trabajo a mis hijos.... y quiero resultados YA
2) Los posts no son mios y eso lo dejo bien claro en el web.

He pensado en el tema de los 404, pero como lo dice el propio Google ellos no influyen negativamente en el posicionamiento.
Además.. que gano editando posts tan viejos que pueden estar plagados de Baklinks Spam?


Creo que tengo más las de ganar con esta acción que de perder y en ultimo caso, es reversible, porque puedo restaurar los posts eliminados.

- - - Actualizado - - -

Bueno, otra cosa que hice fue ocultar (con robots, meta y envié solicitud de eliminacion en WMT ) una aplicación que había instalado que supuestamente le daría más valor agregado al web.

Se trata de un buscador de Mp3 del cual me arrepiento de haberlo comprado he instalado, malo en todo sentido soporte-plantillas-efectividad-flexibilidad si les recomiendo ni pensar en comprarlo es el de x10media, LA MEN TA BLE..

Ademas de no haber generado nada de trafico me llenó de errores en el log del server y el soporte de la aplicación nunca me dió una solución.

En definitiva, estoy tratando de dejar mi sitio tal cual antes de la penalización y como lo dije antes, ahora es cuestión de tiempo y esperar.
 
Última edición:
interesante estrategia, me haces saber los resultados


saludos
 
Una pequeña recomendacion, antes de que te aparecan como error 404 en el webmaster, adelantate ya que tiene un tiempo de efectividad y desindexalos desde el robot.txt y asi te quitaras 1900 errores 404
 
1900 al robot.txt!!! ni lo pienses, no valen la pena... ya envié el sitemap, no es lo mismo pero ayudará.

Son posts que en más de año y medio hacia atrás recibieron 7, 10, 20, 50, hasta 100 visitas son páginas indexadas que nadie las visita, ni siquiera se si vienen de Google, en realidad no se si están todos indexados en el buscador (voy a verifirar esto con algunos...), si se que son basura...
 
ya nos contaras :topsy_turvy:
 
Mas que interesante el experimento.

Yo personalmente Tiraría a la home los errores 404. A ver si viene algún experto en estos temas para ver a donde apuntar los artículos borrados.

Espero esos resultados con ansia XD.
 
Pero dudo mucho que con solo eso tengas mucha mejoria, tiene que tener algo mas la web, supongo.
 
Haber... no soy un experto pero...

El 404 es 404 no te perjudica en el posicionamiento y lo pueden ver aquí ¿Perjudican los 404 a mi sitio web? - El Blog para Webmasters de Google no intenten hacer nada más que personalizar esa plantilla para intentar bajar la tasa de rebote, es lo más recomendable y saludable para el buscador, que ocurre, una vez que el bot encuentra ese 404 serás informado en WMT, lo que haces es ponerlo como solucionado y solicitar la eliminación de URL, cualquier otra cosa que hagas te generará problemas que pueden dar paso a una penalización.

O sea... si en google tienes indexada una URL con "X" título cuando hacen clic deben abrir ese mismo URL con el mismo titulo "X" si no es así DEBE abrir la página de error 404, caso contrario puede ser interpretado como manipulación, contenido duplicado o error en la estructura del sitio, todos peores que informar lo que realmente pasa "La página no existe".


En cuanto a los post's que he eliminado, verifiqué algunos al azar y todos están indexados, si estimo indexados un 90% de esos 1900 creo que habrán cambios ya que le estoy quitando 10% de contenido de Baja calidad al indice de Google.

A modo de cambios, hoy el sitio duplicó la cantidad de páginas indexadas... tiene algo que ver con esto..? no lo se, pero si tiene que ver puede ser el primer síntoma en cuanto a mejorar la calidad de contenido. y dentro de 3 días pasará nuevamente el robot por mi web, veremos que hace con ese cambio.


Gracias por los aportes
 
Última edición:
Atrás
Arriba