Artículos con Inteligencia Artificial o no?

  • Autor Autor ericka83
  • Fecha de inicio Fecha de inicio
E

ericka83

Gamma
Verificado por Whatsapp
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
Veo que esta de moda artículos rápidos para webs nicho, incluso NICHONAUTA en YouTube solo habla de eso Artículos con IA rápidos.

Que opinan ustedes?
Hacer artículos manuales aunque se demore más o armar con Inteligencia Artificial.

Obviamente no podemos predecir el futuro pero como lo ven ustedes?

Piensan que Google los bajaría?, lograría darse cuenta?
 
Google se da cuenta tarde o temprano. Y, de momento, los textos manuales están mejor valorados. Ahora bien, que poco a poco dominen los artículos IA es una realidad
 
Google tiene y tendrá aún más tecnología para detectar textos IA. La pregunta importante es si penalizarán o no de cara a las posiciones. El razonamiento es que si esos textos responden a las preguntas de los usuarios, ¿Qué más da quién los escriba?. Pero al lado contrario, Google puede pensar (y temer) que sus resultados se llenen de información clónica y sin diferenciación.

Debemos tener en cuenta que la IA se alimenta de la información existente en Internet. Si empieza a tomar como fuente textos IA se producirá una retroalimentación tóxica en círculo vicioso.

Es interesante observar hacia dónde va todo esto.
 
Yo digo que tiene que haber un balance cuando a la herramienta IA se refiera, porque hacer todo automatizado (Y más cuando no está supervisado) puede ser un tiro al pie fijo. Si puedes tener como una base de texto con la que realizar tus artículos manuales. Pero no ponerlos sí porque sí después de ser generados automáticamente, es muy notable un texto escrito por IA debido a sus repetitivas estructuras para escribir, eso lo puedes mitigar revisando el texto. Así que digo que, es viable. Pero siempre al ser supervisado y pulido.
 
¡Hola, ericka83!

Pienso que se trata de una práctica más, que solamente traerá "pan para hoy y hambre para mañana".

Imagina que abres una web nueva y en pocos días, tienes publicados, por poner una cifra, 5.000 artículos. ¿No tendría mucho sentido, verdad? Con una simple revisión manual, la web desaparecería de las serps.

Ese es uno de los problemas que le veo a todo este tipo de prácticas, pero hay muchísimos más.

Supón ahora que 100 webmasters están trabajando una misma temática de nicho y las mismas keywords, con una misma herramienta. El resultado sería seguramente demasiado parecido entre las diferentes webs.

Resumiendo, le veo muchísimos problemas a todo esto y creo que es bastante mejor, comprar un puñado de textos que hacer uso de este tipo de "trucos".
 
Tarde o temprano se penalizará seguro.
 
Esto es lo que dice Google al respecto:

"¿El contenido generado por IA infringe las directrices de la Búsqueda de Google?​

El uso adecuado de la IA o la automatización no infringe nuestras directrices. Es decir, nos referimos al contenido que no se utiliza principalmente para manipular el posicionamiento en los resultados de búsqueda, lo cual infringe nuestras políticas de spam."
 
https://developers.google.com/search/blog/2023/02/google-search-and-ai-content?hl=es

Google, como siempre, es bastante ambiguo pero en principio lo que viene a decir es que usar IA ni perjudica ni beneficia los resultados de búsqueda siempre que sean contenidos de calidad y no spam.

La clave puede estar en lo que dice el compañero Xauen: si todo el mundo usa IA para determinadas Keywords ¿cómo demonios vas a obtener contenido original?



 
Para mí no sirve. Genera contenido repetitivo, pobre y sacado tal cual de otros sitios.

Opino como algunos, a la larga se va a penalizar. Y si eso no pasa, creo que va a ser más de lo mismo.
 
A ver, es que tampoco puedo compartir el 100% de cómo lo enfocamos en proyectos propios, porque hay "truquillos", pero básicamente hay 3 problemas importantes en todo esto.

Son los siguientes:

1. La cantidad de contenido

Imagina que en una web relativamente nueva publicas 5.000 urls, es que vamos, esto no hay quien se lo pueda creer, porque no tiene sentido.

Hay muchísima gente que está haciendo esto, webs con 1 semana de vida y ya tienen, por poner un ejemplo, 10.000 urls o cosas por el estilo jajajaj

2. El estudio de palabras clave

Hay que definir muy bien las palabras clave a atacar para no estar perdiendo el tiempo, es decir, centrarse en búsquedas muy pequeñas que apenas tengan competencia y la sumatoria de ese total de búsquedas, aporten tráfico orgánico a la web.

Imaginad, por poner un ejemplo, 500 urls que abarquen muchísimas búsquedas de cola larga. Si posicionas X % de urls, tienes X visitas.

No tiene más historia el asunto.

3. Hay demasiadas webs que son puros clones unas de otras

El gran problema que le estoy viendo a todo esto, está en nosotros mismos, la gente que nos dedicamos a los nichos para monetizar y todo eso.

Un webmaster hace una web y le funciona, a los 5 días, hay otras 3 webs prácticamente idénticas.

Ese es el gran problema, que la gente no tira, por lo general, de creatividad, solamente copia.

Al final, pasará como con muchas otras cosas, tantísima gente haciendo lo mismo, vendrán las penalizaciones de alguna manera. No digáis que no estáis avisados 🙂

Mi recomendación para los que queráis hacer esto:

1. Analizad bien el sector y la competencia, es decir, las oportunidades que haya y las que no hay también.
2. Definir bien una estrategia de keywords a atacar.
3. Comprad lotes de estos contenidos, por ejemplo, 100 urls y cosas así para abaratar costes.

Lo único que tenéis que explicar muy bien a la persona que compréis los textos, es que estos tienen que ser legibles, es decir, que tiene que leerlos por encima y si hay alguna cosa que no tiene sentido, la tiene que arreglar para que el artículo tenga sentido.
 
Muy buen aporte @Xauen. El problema que veo es lo que dices, que todo el mundo al final tiene acceso a las herramientas de longtail y todos atacan las mismas kws. Buscas "lapiceros rojos de Albacete que envian por Correos" (es solo un ejemplo) y aparecen mil.

La solución es innovar en títulos, y claro está, en darle un enfoque diferente. La clave es la utilidad: acertar en la diana de lo que busca el usuario y conducirle a los objetivos que tenemos nosotros.

Dentro del tema de la IA que nos ocupa, lo malo es que esos textos acaban siendo clones alrededor de las muletillas de chatgpt, que si incluye, que si es importante, conclusión con repetición de lo ya dicho, etc. Las ideas no cambian en esos textos, solo algunas palabras y su orden. Eso lo ve Google y lo califica como duplicados (por mucho que nos creamos listos y cambiemos 4 sinónimos).

El problema no es si penaliza publicar esos textos, sino si aportan al final algo nuevo que le interese a Google.
 
La calidad del contenido es pobrísima, y tira mucha sveces información errada, incluso la misma IA lo avisa que ofrece información errada. A la vez cuando Google desarrolle su propia IA para combatir la IA de otros, todos esos artículos que habrá miles iguales van a caer en posiciones. Realicé unas cuantas pruebas y para nada. en mi opinión no sirven ni para reescribirlos. Sigo trabajando con investigaciones propias en Internet sobre los temas, que los artículos los redactados a mano desde cero y bien trabajados van a valer oro en el futuro.
 
Probé recientemente dos métodos que ofrecian crear textos en masa y no pude quedar mas decepcionada, son repetitivos, se salen del contexto y se van por las ramas hasta terminar diciendo incoherencias, y como decían arriba, si 20 personas usan la IA y deciden atacar las mismas longtails, en algún momento será un ban asegurado por la extrema simulitud que tendrían los textos, así que por mi parte, prefiero quedarme con mis artículos que si, pido que la IA redacte, pero después de eso me tomo al menos 30 minutos en pulirlos antes de publicar
 
Entonces Google creo Bard (AI) para que usuarios puedan crear contenido y luego ellos mismos van a banear a Bard?🧐

Google ya sabe que el 60% de contenido encontrado online es duplicado, y a Google mismo le ha costado muchos recursos, tiempo y dinero deshacerse de spam. Por eso hace mas de diez años ya decidieron darle poder a marcas conocidas y se enfocaron en el tema de autoridad. Fue el mismo Eric Schmidt, el entonces CEO de Google, quien dijo que las marcas son la solución.

Creo que por eso muchos, hoy en día, creen que EEAT es un factor de posicionamiento cuando en realidad no lo es, pero si es parte de las reglas del Search Rater Guidelines que viene a ser las personas que contratan para verificaciones manuales de las paginas y por eso hasta existe un manual para los raters

Entonces, Google no podrá tan fácilmente decidir que fue creado por un copywriter y que fue creado por ChatGPT o Bard. Si aun hoy en día le cuesta saber que paginas están haciendo cloaking y envían a un ser humano para verificar.

Si se puede usar AI para generar contenido así como por años se ha usado otros software o scripts para generarlo. Yo personalmente he usado cloaking muchos años. El problema es que muchos generan contenido y lo suben como se genero, sin una sola revision. Eso es falta de ética por parte del creador de contenido y en ese caso es cuando participan los raters.

Si generas contenido con AI y lo revisas modificas/editas antes de subirlo a tu web verificando que estas subiendo contenido de calidad, no tendrás ningún problema ya que aun revisando ese contendido generado por AI, vas mas rápido que una persona que le puede tomar una semana escribir un solo articulo de calidad.

Y si deseas volverte un Google rater aquí tienes mas info.
 
Última edición:
No se trata de copiar y pegar un artículo hecho por una IA, sino de usar la IA como lo que es: una herramienta. Con ella es posible optimizar tiempo y en función de nuestras necesidades, adaptarla para alcanzar objetivos específicos.
 
Cómo planteas, marcará la diferencia. Sólo la gente floja utilizará esta herramienta de oro para exponerlo tal cual lo ponga. Quien lo agrande y permita que el arte de la lectura y la comprensión se maximicen, prevalecerán.
 

Excelente 👌
 
Totalmente de acuerdo. Eso sí: sin entrar a valorar a los "humanos" que revisan manualmente las web. No pueden tener un criterio más sesgado (hasta por nacionalidades).
Las normas de Google son deliberadamente ambiguas para que sólo ellos las puedan interpretar como les dé la gana.
 
Me alegro que no todo esto del SEO este acabado por la IA, ya que apenas me estoy metiendo a cursos de como monetizar páginas web o hacer negocios en línea, aunque lo había escuchado hace 4 años atrás pero no tenía la mentalidad adecuada para llevarla a cabo.