E
ericka83
Gamma
Verificado por Whatsapp
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
¡Hola, ericka83!
Pienso que se trata de una práctica más, que solamente traerá "pan para hoy y hambre para mañana".
Imagina que abres una web nueva y en pocos días, tienes publicados, por poner una cifra, 5.000 artículos. ¿No tendría mucho sentido, verdad? Con una simple revisión manual, la web desaparecería de las serps.
Ese es uno de los problemas que le veo a todo este tipo de prácticas, pero hay muchísimos más.
Supón ahora que 100 webmasters están trabajando una misma temática de nicho y las mismas keywords, con una misma herramienta. El resultado sería seguramente demasiado parecido entre las diferentes webs.
Resumiendo, le veo muchísimos problemas a todo esto y creo que es bastante mejor, comprar un puñado de textos que hacer uso de este tipo de "trucos".
A ver, es que tampoco puedo compartir el 100% de cómo lo enfocamos en proyectos propios, porque hay "truquillos", pero básicamente hay 3 problemas importantes en todo esto.
Son los siguientes:
1. La cantidad de contenido
Imagina que en una web relativamente nueva publicas 5.000 urls, es que vamos, esto no hay quien se lo pueda creer, porque no tiene sentido.
Hay muchísima gente que está haciendo esto, webs con 1 semana de vida y ya tienen, por poner un ejemplo, 10.000 urls o cosas por el estilo jajajaj
2. El estudio de palabras clave
Hay que definir muy bien las palabras clave a atacar para no estar perdiendo el tiempo, es decir, centrarse en búsquedas muy pequeñas que apenas tengan competencia y la sumatoria de ese total de búsquedas, aporten tráfico orgánico a la web.
Imaginad, por poner un ejemplo, 500 urls que abarquen muchísimas búsquedas de cola larga. Si posicionas X % de urls, tienes X visitas.
No tiene más historia el asunto.
3. Hay demasiadas webs que son puros clones unas de otras
El gran problema que le estoy viendo a todo esto, está en nosotros mismos, la gente que nos dedicamos a los nichos para monetizar y todo eso.
Un webmaster hace una web y le funciona, a los 5 días, hay otras 3 webs prácticamente idénticas.
Ese es el gran problema, que la gente no tira, por lo general, de creatividad, solamente copia.
Al final, pasará como con muchas otras cosas, tantísima gente haciendo lo mismo, vendrán las penalizaciones de alguna manera. No digáis que no estáis avisados 🙂
Mi recomendación para los que queráis hacer esto:
1. Analizad bien el sector y la competencia, es decir, las oportunidades que haya y las que no hay también.
2. Definir bien una estrategia de keywords a atacar.
3. Comprad lotes de estos contenidos, por ejemplo, 100 urls y cosas así para abaratar costes.
Lo único que tenéis que explicar muy bien a la persona que compréis los textos, es que estos tienen que ser legibles, es decir, que tiene que leerlos por encima y si hay alguna cosa que no tiene sentido, la tiene que arreglar para que el artículo tenga Excelente
Excelente 👌A ver, es que tampoco puedo compartir el 100% de cómo lo enfocamos en proyectos propios, porque hay "truquillos", pero básicamente hay 3 problemas importantes en todo esto.
Son los siguientes:
1. La cantidad de contenido
Imagina que en una web relativamente nueva publicas 5.000 urls, es que vamos, esto no hay quien se lo pueda creer, porque no tiene sentido.
Hay muchísima gente que está haciendo esto, webs con 1 semana de vida y ya tienen, por poner un ejemplo, 10.000 urls o cosas por el estilo jajajaj
2. El estudio de palabras clave
Hay que definir muy bien las palabras clave a atacar para no estar perdiendo el tiempo, es decir, centrarse en búsquedas muy pequeñas que apenas tengan competencia y la sumatoria de ese total de búsquedas, aporten tráfico orgánico a la web.
Imaginad, por poner un ejemplo, 500 urls que abarquen muchísimas búsquedas de cola larga. Si posicionas X % de urls, tienes X visitas.
No tiene más historia el asunto.
3. Hay demasiadas webs que son puros clones unas de otras
El gran problema que le estoy viendo a todo esto, está en nosotros mismos, la gente que nos dedicamos a los nichos para monetizar y todo eso.
Un webmaster hace una web y le funciona, a los 5 días, hay otras 3 webs prácticamente idénticas.
Ese es el gran problema, que la gente no tira, por lo general, de creatividad, solamente copia.
Al final, pasará como con muchas otras cosas, tantísima gente haciendo lo mismo, vendrán las penalizaciones de alguna manera. No digáis que no estáis avisados 🙂
Mi recomendación para los que queráis hacer esto:
1. Analizad bien el sector y la competencia, es decir, las oportunidades que haya y las que no hay también.
2. Definir bien una estrategia de keywords a atacar.
3. Comprad lotes de estos contenidos, por ejemplo, 100 urls y cosas así para abaratar costes.
Lo único que tenéis que explicar muy bien a la persona que compréis los textos, es que estos tienen que ser legibles, es decir, que tiene que leerlos por encima y si hay alguna cosa que no tiene sentido, la tiene que arreglar para que el artículo tenga sentido.
Totalmente de acuerdo. Eso sí: sin entrar a valorar a los "humanos" que revisan manualmente las web. No pueden tener un criterio más sesgado (hasta por nacionalidades).Entonces Google creo Bard (AI) para que usuarios puedan crear contenido y luego ellos mismos van a banear a Bard?🧐
Google ya sabe que el 60% de contenido encontrado online es duplicado, y a Google mismo le ha costado muchos recursos, tiempo y dinero deshacerse de spam. Por eso hace mas de diez años ya decidieron darle poder a marcas conocidas y se enfocaron en el tema de autoridad. Fue el mismo Eric Schmidt, el entonces CEO de Google, quien dijo que las marcas son la solución.
Creo que por eso muchos, hoy en día, creen que EEAT es un factor de posicionamiento cuando en realidad no lo es, pero si es parte de las reglas del Search Rater Guidelines que viene a ser las personas que contratan para verificaciones manuales de las paginas y por eso hasta existe un manual para los raters
Entonces, Google no podrá tan fácilmente decidir que fue creado por un copywriter y que fue creado por ChatGPT o Bard. Si aun hoy en día le cuesta saber que paginas están haciendo cloaking y envían a un ser humano para verificar.
Si se puede usar AI para generar contenido así como por años se ha usado otros software o scripts para generarlo. Yo personalmente he usado cloaking muchos años. El problema es que muchos generan contenido y lo suben como se genero, sin una sola revision. Eso es falta de ética por parte del creador de contenido y en ese caso es cuando participan los raters.
Si generas contenido con AI y lo revisas modificas/editas antes de subirlo a tu web verificando que estas subiendo contenido de calidad, no tendrás ningún problema ya que aun revisando ese contendido generado por AI, vas mas rápido que una persona que le puede tomar una semana escribir un solo articulo de calidad.
Y si deseas volverte un Google rater aquí tienes mas info.
Utilizamos cookies y tecnologías similares para los siguientes fines:
¿Aceptas las cookies y estas tecnologías?
Utilizamos cookies y tecnologías similares para los siguientes fines:
¿Aceptas las cookies y estas tecnologías?