Pollosor
Beta
Verificado por Whatsapp
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
¿Y si lo modifico bastante como dijo BotBeta?Google lo va a saber... y te va a mandar al inframundo xd
Tenes que darle un "toque personal" a los textos, solo usa la IA para crear el contexto, la estructura. Si es contenido informal, agrega regionalismos, algunos errores gramaticales, que sea natural. Igual eso tampoco te asegura que posicione, pero por lo menos evita que te penalicen y que directamente ni te tengan en cuenta.¿Y si lo modifico bastante como dijo BotBeta?
Sí, se puede crear con ChatGPT post y publicarlos, de hecho, ahora no es necesario pasar por otros idiomas, eso es método viejo que ya no tiene sentido hacerlo... tendrás que buscar un tutorial bien detallado en inglés, porque en español hay poco y nada, yo conozco el método pero requiere una explicación detallada; cosa que no hago gratis. Pero efectivamente sí... se puede con ChatGPT 😌 👍Hola!
Buenos días.
Ya tengo mi página web.
¿Puedo generar contenido por ChatGPT o algún otro IA un post de una guía?
Luego para no ser detectado, cambiarle de idioma 3 o 2 veces, algo así escuché.
La quiero meter a Adsense.
Cuéntame más por MP.Sí, se puede crear con ChatGPT post y publicarlos, de hecho, ahora no es necesario pasar por otros idiomas, eso es método viejo que ya no tiene sentido hacerlo... tendrás que buscar un tutorial bien detallado en inglés, porque en español hay poco y nada, yo conozco el método pero requiere una explicación detallada; cosa que no hago gratis. Pero efectivamente sí... se puede con ChatGPT 😌 👍
Realmente va más allá de todo estoHola!
Buenos días.
Ya tengo mi página web.
¿Puedo generar contenido por ChatGPT o algún otro IA un post de una guía?
Luego para no ser detectado, cambiarle de idioma 3 o 2 veces, algo así escuché.
La quiero meter a Adsense.
Claro, aquí te va una versión más "humana":mejorame el siguiente texto como si me lo contara una persona y no como lo hace chatgpt como si fuera enciclopedia:
Aquí hay algunas razones por las que ya no se utiliza Flash:
- Descontinuación de Flash Player: Adobe dejó de ofrecer actualizaciones y soporte para Flash Player en diciembre de 2020. Los principales navegadores, como Google Chrome, Mozilla Firefox y Microsoft Edge, eliminaron el soporte para Flash.
- Problemas de seguridad: Flash ha sido conocido por tener múltiples vulnerabilidades de seguridad a lo largo de los años. La descontinuación ayuda a mitigar estos riesgos.
- Rendimiento y compatibilidad: Las tecnologías más modernas, como HTML5, CSS3 y JavaScript, ofrecen mejor rendimiento y compatibilidad en diferentes dispositivos y navegadores.
- Estandarización: HTML5 se ha convertido en el estándar para contenido multimedia en la web. Ofrece capacidades similares y superiores a las de Flash sin necesidad de complementos adicionales.
si, y se gana bien, a google no le interesa si fue generado o no por IA, adsense sin problemas... visitas estables....
pero pero pero... muchos de los que "generan contenido con ChatGPT" usan un método absurdo:
El algoritmo de google para detectar spammers:
- Consiguen una lista de 1.000 keywords
- Generan 1.000 posts de 2.000 palabras y los publican todos a la vez
- Un tiempo rankean bien en los resultados un 2% de los artículos
- Comienzan a recibir visitas y más visitas
- Después de unos meses Google pone la web en la lista de Spammers y los artículos nunca más aparecen en buenas posiciones
- Creen que es por generar los artículos con CHATGPT
Interpretación del código:
Este código parece ser un fragmento de un programa que evalúa la confiabilidad de un sitio web. Se utilizan variables y condiciones para determinar un puntaje de "desconfianza" que se incrementa en función de ciertos criterios.
Explicación detallada:
En resumen:
- Variables:
- desconfianza: Variable inicializada en 0%. Probablemente representa el puntaje inicial de confiabilidad del sitio web.
- sitioWeb.Antiguedad: Representa la antigüedad del sitio web en meses.
- sitioWeb.Artículos: Representa la cantidad de artículos publicados en el sitio web.
- sitioWeb.TrustedBackLinks: Representa la cantidad de backlinks confiables que apuntan al sitio web.
- sitioWeb.KeywordCannibalization: Representa el porcentaje de canibalización de palabras clave en el sitio web.
- sitioWeb.FrecuenciaDeBacklinks: Representa la frecuencia con la que se obtienen backlinks al sitio web.
- Condiciones:
- Primera condición:
- Si la sitioWeb.Antiguedad es menor a 12 meses, Y sitioWeb.Artículos es mayor a 500, Y sitioWeb.TrustedBackLinks es menor a 100, ENTONCES desconfianza se incrementa en 35%.
- En otras palabras, si el sitio web es nuevo, tiene muchos artículos, pero pocos backlinks confiables, se considera menos confiable y se incrementa su puntaje de desconfianza.
- Segunda condición:
- Si sitioWeb.KeywordCannibalization es mayor al 25%, ENTONCES desconfianza se incrementa en 10%.
- Esto significa que si el sitio web tiene un problema significativo de canibalización de palabras clave, se considera menos confiable y se incrementa su puntaje de desconfianza.
- Tercera condición:
- Si sitioWeb.FrecuenciaDeBacklinks es menor a 0.5, ENTONCES desconfianza se incrementa en 20%.
- Lo que implica que si el sitio web no obtiene backlinks con frecuencia, se considera menos confiable y se incrementa su puntaje de desconfianza.
Este código parece evaluar la confiabilidad de un sitio web en función de su antigüedad, la cantidad de artículos, la cantidad de backlinks confiables, la canibalización de palabras clave y la frecuencia de backlinks. Si se cumplen ciertas condiciones, se incrementa el puntaje de "desconfianza", lo que sugiere que el sitio web podría ser menos confiable.
Es importante tener en cuenta que este es solo un fragmento de código y no se conoce el contexto completo del programa. Es posible que haya otras variables y condiciones que influyan en el puntaje de desconfianza final.
Sin más información, no se puede determinar con precisión qué tan confiable es un sitio web en base a este código.
En realidad es solo algo ilustrativo pero el que entiende entiende..., lo que quiero decir es que Google no detecta el contenido generado por IA, sería muy costoso, impreciso e inútil.
El contenido generado por IA es muchas veces superior al contenido escrito por redactores promedio. No sirve de nada tratar de filtrar, modificar o cambiar el contenido IA para que parezca escrito por humanos.
Lo que importa es que gente como el mítico CHUl5O o Dean Ramero, "regalan" sus recetas para el fracaso y para gastar mucho dinero en las herramientas IA automáticas que ellos ofrecen.
Lo que google detecta es a los malditos SPAMMERS que bombardean con contenido al maldito índice del buscador. Después de unos meses de ponerlos a prueba los sitios web generados totalmente con IA bajan al infierno de las SERPs.
La sugerencia es generar contenido con IA pero con estructura, ir publicando poco a poco los artículos, y a la vez ganar enlaces naturalmente y artificialmente con un plan a largo plazo, publicar 2 artículos al día, bien completos, después de haber analizado la oferta de resultados y la demanda de información... ver las páginas de la competencia y ofrecer algo "mejor" en aspectos que le interesen a la audiencia...
Tomarse en serio la web con contenido con IA e imitar el crecimiento tradicional de una web. Aumentar los backlinks a medida que aumentan los artículos, crear redes sociales, perfiles reales (o aparentemente reales) de los redactores, etc.
Utilizamos cookies y tecnologías similares para los siguientes fines:
¿Aceptas las cookies y estas tecnologías?
Utilizamos cookies y tecnologías similares para los siguientes fines:
¿Aceptas las cookies y estas tecnologías?