ChatGPT: ¿Google se da cuenta del contenido generado con ChatGPT?

  • Autor Autor Googleriano
  • Fecha de inicio Fecha de inicio
Para mi como programador creo que es algo muy obvio teniendo en cuenta que todo el contenido generado de GPT-3 es sacado del mismo internet 😀
 
Lo más probable es que Google sepa detectar el contenido de las IA, por eso siempre es importante modificar los textos generados. Aunque lo importante es que hará Google? Ya todos nos dimos cuenta que las IA es la nueva tendencia y será el contenido dominante en el futuro, la verdadera pregunta es si Google penalizará este tipo de contenido o más bien promoverá herramientas para lucrarse de ellas y sacar más dinero? Recordemos que Google es una empresa y su interés es generar ganancias
 
Hola amigos,
Encontré una pagina que al parecer la dectecta. Yo generalmente genero texto en español y al ponerlo en esta pagina me sale que no es generado por IA pero si traduzco el texto que me genera chatgpt a ingles y lo vuelvo a examinar en la pagina si aparece que es generado por IA.

Aqui les dejo el sitio, hagan la prueba y me cuenta ya que seria una buena forma de saber como modificar el texto para que no lo identifique.
 
La gente no sabe o se le olvida que google tiene a lamda https://blog.google/technology/ai/lamda/ que es similar o mejor que Gpt3, al final del dia servira para lo mismo... y sea lo que sea Alphabet va encontrar la manera de monetizar su producto sea como sea. Entonces no creo que a la larga quiera google banear su propio producto.
 
Mucho Googlelover y porque no pensar en la debacle de Google...Bing se esta poniendo cada vez mas PRO...han caído grandes y lo seguirán haciendo mientras no evolucionen de la mano de nosotros los usuarios. Ahora resulta que Google nos va a ganar a los usuarios. Si nosotros la dejamos de lado...ellos serán los que tendrán que alinearse.
 
Mucho Googlelover y porque no pensar en la debacle de Google...Bing se esta poniendo cada vez mas PRO...han caído grandes y lo seguirán haciendo mientras no evolucionen de la mano de nosotros los usuarios. Ahora resulta que Google nos va a ganar a los usuarios. Si nosotros la dejamos de lado...ellos serán los que tendrán que alinearse.
A esto me refiero, mientras el receptor este cómodo con lo que este leyendo, a Google no le queda de otra que adaptarse. Son empresas que van de la mano diría yo.
 
A esto me refiero, mientras el receptor este cómodo con lo que este leyendo, a Google no le queda de otra que adaptarse. Son empresas que van de la mano diría yo.
Sino que muchos adsenseros no les conviene, pierden la objetividad...a ellos no les conviene que Google desaparezca o vaya en caída libre, aunque para eso le pongo 10 años.
 
Sino que muchos adsenseros no les conviene, pierden la objetividad...a ellos no les conviene que Google desaparezca o vaya en caída libre, aunque para eso le pongo 10 años.
Ambas van de la mano, Google necesita generadores de buen contenido, y las IA necesitan los usuarios de Google. Asi de sencillo, para mi no tendría sentido competir.
 
Para mi como programador creo que es algo muy obvio teniendo en cuenta que todo el contenido generado de GPT-3 es sacado del mismo internet 😀
Y de donde se saca información para las redacciones sino del mismo internet...
He probado varias formas de hacer uso de la api para generar texto lo mas "humano" posible con varias variantes, pero no hay caso. Siempre se siente que es robotico y prearmado, no se como lo hace en ingles, pero supongo que va por el mismo camino, lo que queda es hacer uso del Finetuning y empezar a entrenarlo para generar contenido de acuerdo a lo que necesitemos, no es facil ni rapido pero es lo mejor.

Tener en cuenta que el proposito de esto no es crear contenido para SEO, es para obtener y administrar información lo mas precisa y confiable posible. Quizas con el tiempo y conforme se vaya "auto entrenando" se haga mas legible en cara a posicionar, pero para eso el SEO como tal seguro tomara otros rumbos, de hecho ya lo esta haciendo con el contenido audiovisual. El exceso de información hará que para generar dinero tengamos que inventarnos algo nuevo. Quien sabe....
 
Solo hay que preguntarse cuántas personas pueden hacer la misma búsqueda, y tendrán el mismo texto.

Y creo que tarde o temprano Google penalizará el contenido.
nada que ver, yo le he pedido a GPT3 que me reescriba un mismo articulo, y cada articulo que genera es totalmente distinto al otro, dudo mucho que google se entere, y si lo editas un poco, menos, es imposible que vea la diferencia entre un humano y la redaccion de dicha IA
 
nada que ver, yo le he pedido a GPT3 que me reescriba un mismo articulo, y cada articulo que genera es totalmente distinto al otro, dudo mucho que google se entere, y si lo editas un poco, menos, es imposible que vea la diferencia entre un humano y la redaccion de dicha IA

Eso vengo comentando desde el tema donde participo el user que se la da de master en Hosting y Servers xD

El user es muy pro utilizando su IA, pero no voy a luchar para que nadie me crea, se darán cuentas solos.
 
Estoy convencido que Google ya identifica esos textos, sin ir mas legos ya existen negocios que con ingeniera inversa lo hacen, una IA que identifica como escribe una IA. si web como unfluff.io pueden hacerlo imagínate Google. La pregunta es cuando caerán ese tipo de webs creadas con IA, como paso con las traducidas.
Usé Unfluff.io con un texto de ChatGPT en español y me dió score de 72%, y sugiere que borrar pero son oraciones completas.
Luego probé un texto mio, de nuevo en español, redactado de 0 y me dio score de 76%.
Extraje lo que marcó como "pelusa" y lo pegue para checarlo y dio 100% libre de pelusa, el mismo texto que antes marco como un problema.
Le puse un texto antiguo de Wikipedia y dio score de 75%, entonces no creo que sea una buena herramienta hasta el momento.

Hola amigos,
Encontré una pagina que al parecer la dectecta. Yo generalmente genero texto en español y al ponerlo en esta pagina me sale que no es generado por IA pero si traduzco el texto que me genera chatgpt a ingles y lo vuelvo a examinar en la pagina si aparece que es generado por IA.

Aqui les dejo el sitio, hagan la prueba y me cuenta ya que seria una buena forma de saber como modificar el texto para que no lo identifique.

Este no funciona en español, pero en inglés si es capaz de detectar si es de OpenAi, lo probé con 2 textos de 400 palabras generados en OpenAI con davinci 003.
 
Mi respuesta sería, no lo sé.

Pero creo que si no lo hace, pronto lo hará, eso te podría dar pistas sobre lo que vale la pena hacer y lo que no.
Para mi, estaría bien que entre las buenas practicas, los Redactores que ofrecen sus Articulos, ya sea por venta o subasta, coloquen información sobre si el texto contiene en parte contenido generado por IA, sin que tengamos que preguntar. Porque ya no solo debe cumplir con ser contenido original, a la vista de los verificadores de plagio como QueText pasan como libres, sino que especifiquen si es escrito por ellos, traducido, espineado.
Ya detecté un usuario que está vendiendo contenido de una IA como Articulos libres de plagio.
 
Bueno es que Google la tendrá difícil porque hay redactores que hacen su contenido mucho peor que el generado por la IA, te encuentras cada artículo por ahí que te causa ardor en los ojos😅😅, además como buena IA irá corrigiendo sus algoritmos aprendiendo diariamente y mejorando su técnica de redacción (si se cumple el algoritmo de IA de forma correcta).
 
Siento que es una mala practica tomar los textos de las IA asi tal cual como los da, lo mejor es usarlos para complementar y obtener ideas para redaccion.
 
Para que veas lo que es capaz de ocasionar, a mí me pusieron un "me empayasa" significa que el creador del tema le creyo al GPTero xD

Porque tu mensaje es de payaso. El mensaje no fue hecho por GPT y si el dueño del foro pudiese ver las revisiones o el tiempo que estuve redactando el mensaje en dicho hilo, verá que efectivamente no está hecho por GPT. Lo que pasa que parece que la tienes tomada conmigo porque demostré que los que contrataron servicios contigo perdieron toda su información.

Sólo hace falta leer mi mensaje y darse cuenta de que una IA lo hubiese escrito mucho más técnico y sin muchas expresiones que en mi texto se nota que es humano. Una IA nunca te va a escribir intercalando primeras y terceras personas ni siendo tan incompleto en muchos puntos.

Si. Lo que si es seguro es que el ser humano será cada vez mas bruto. Ya ni se animarà a investigar, o pensar. Solo es preguntar al chat, o buscar en Google.

Mi mensaje fue redactado. Tú mismo lo puedes leer aquí y te darás cuenta que es redactado. Que use listados es algo que siempre he hecho, pero el mensaje desde que me citan entré y lo elaboré a mano. Una IA escribiría todo eso de forma más correcta y técnica.
 
Los contenidos generados por IA el problema que tienen es que de momento, como dicen los compañeros, pueden ser detectados. Ahora claro, se detectan porque siempre utilizan las mismas muletillas, es decir, los mismos patrones.

Hay actualmente 3 formas de detectar:
  1. Muletillas. Siempre repite las mismas muletillas, como "Si está... Si está..." (hay otras, es un ejemplo), puede que algunas personas hagan uso abusivo de ello, pero es un porcentaje mínimo, por lo que finalmente en un texto largo al encontrar estos patrones se podrían catalogar como IA y llevarse a 3 o 4 inocentes por delante, a cambio de dar con un montón de IA.
  2. Carente de expresividad. Las IA siempre escriben de forma muy robótica, de esos textos que lees y notas que son como muy políticamente correctos. Algunos ven un listado y se piensan que es ChatGPT, sin ver las expresiones, se nota la diferencia entre humano e IA.
  3. Datos desactualizados. Ahora también el problema es que no tiene base de datos actual, y sus textos muchas veces tiene errores grandes como decir que X lugar está en Ciudad de México cuando está en París.
Los puntos 2 y 3 veo difícil que Google sea capaz de detectar. Si fuera texto a texto capaz lo detecta con su IA, pero deben invertir mucho dinero o uso de cómputo por cada texto analizado. Lo que pasa es que hacerlo en masa les traería muchos costes, por eso es que tampoco pueden estar activamente monitorizando esas cosas.

El punto 1 eventualmente la IA lo perfeccionará y no se podrá uno dar cuenta, ni con otra IA. A corto y medio plazo sí será una pelea entre IA para detectar otras IA; pero a un largo plazo no habrá forma de detectar.

Lo que yo creo que por donde más se moverá todo este tema es por lo legal. Sí, las leyes y todo lo relacionado. Habrá más regulación y quizás hasta obligación intencionada de utilizar patrones que se puedan detectar.

Por ejemplo que sea obligatorio compartir los outputs de las IA o de alguna forma vaya etiquetado de origen que es IA. O por otro lado también actualmente le preguntas a una IA sobre cualquier cosa "prohibida" y no te responde. La IA está modificada, al igual que se puede modificar para que responda de una determinada manera para que se tenga identificado que es escrito por IA.
 
De
Los contenidos generados por IA el problema que tienen es que de momento, como dicen los compañeros, pueden ser detectados. Ahora claro, se detectan porque siempre utilizan las mismas muletillas, es decir, los mismos patrones.

Hay actualmente 3 formas de detectar:
  1. Muletillas. Siempre repite las mismas muletillas, como "Si está... Si está..." (hay otras, es un ejemplo), puede que algunas personas hagan uso abusivo de ello, pero es un porcentaje mínimo, por lo que finalmente en un texto largo al encontrar estos patrones se podrían catalogar como IA y llevarse a 3 o 4 inocentes por delante, a cambio de dar con un montón de IA.
  2. Carente de expresividad. Las IA siempre escriben de forma muy robótica, de esos textos que lees y notas que son como muy políticamente correctos. Algunos ven un listado y se piensan que es ChatGPT, sin ver las expresiones, se nota la diferencia entre humano e IA.
  3. Datos desactualizados. Ahora también el problema es que no tiene base de datos actual, y sus textos muchas veces tiene errores grandes como decir que X lugar está en Ciudad de México cuando está en París.
Los puntos 2 y 3 veo difícil que Google sea capaz de detectar. Si fuera texto a texto capaz lo detecta con su IA, pero deben invertir mucho dinero o uso de cómputo por cada texto analizado. Lo que pasa es que hacerlo en masa les traería muchos costes, por eso es que tampoco pueden estar activamente monitorizando esas cosas.

El punto 1 eventualmente la IA lo perfeccionará y no se podrá uno dar cuenta, ni con otra IA. A corto y medio plazo sí será una pelea entre IA para detectar otras IA; pero a un largo plazo no habrá forma de detectar.

Lo que yo creo que por donde más se moverá todo este tema es por lo legal. Sí, las leyes y todo lo relacionado. Habrá más regulación y quizás hasta obligación intencionada de utilizar patrones que se puedan detectar.

Por ejemplo que sea obligatorio compartir los outputs de las IA o de alguna forma vaya etiquetado de origen que es IA. O por otro lado también actualmente le preguntas a una IA sobre cualquier cosa "prohibida" y no te responde. La IA está modificada, al igual que se puede modificar para que responda de una determinada manera para que se tenga identificado que es escrito por IA.
De esto que citas, leí no sé dónde que se estaban implementando marcas de agua en los textos de IA para poder identificarlos por la propia IA a la hora de recopilar contenido y que no acabe siendo un círculo vicioso.

Me imagino que las marcas de agua serán sumas hexadecimales concretas al convertir caracteres o disposiciones de palabras concretas.

Y lo que debe preocuparnos precisamente son las fuentes de la IA. Porque esos algoritmos no son sabios con barba, son recopiladores de información que luego compilan y redactan-fusilan (ahí está su único valor, de momento). Una buena IA será la que sea capaz de acceder a fuentes primarias en vez de a refritos por la red. Y valoraremos esa información de igual forma que la de los humanos: por ser contrastada, completa, útil y fiable.

De todas formas esto no ha hecho más que empezar.
 
Última edición:
De esto que citas, leí no sé dónde que se estaban implementando marcas de agua en los texto de IA para poder identificarlos por la propia IA a la hora de recopilar contenido y que no acabe siendo un círculo vicioso.

También he visto muchas de esas noticias aparecer el día de los inocentes, fíjate si no fue una de esas inocentadas o cualquier cosa, pero bueno, sea o no sea inocentada, es muy probable que salga una solución similar o algo así.

No dudo que pueda ser una posibilidad. Y seguro que es alguna noticia real, o si no es eso, de otra forma similar. De hecho vaya, es lo que yo creo que es donde irán los tiros como dije en el mensaje anterior. Al final es donde los generadores de contenido pueden o deben apretar, en la fuente de los textos IA. Y es lo que yo creo que harán o al menos deberían hacer si quieren diferenciar entre humanos e IA.

lo que debe preocuparnos precisamente son las fuentes de la IA. Porque esos algoritmos no son sabios con barba, son recopiladores de información que luego compilan y redactan-fusilan (ahí está su único valor, de momento). Una buena IA será la que sea capaz de acceder a fuentes primarias en vez de a refritos por la red. Y valoraremos esa información de igual forma que la de los humanos: por ser contrastada, completa, útil y fiable.

A corto plazo seguro que sí, falla y va a fallar. Pero es lo mismo que sucede con humanos actualmente con las fake news. Me explico, sí, ese es un problema de las IA, la información falsa, pero no es un problema que ha aparecido con la IA; es un problema que ya estaba y lo único que hace la IA es potenciarla. Pero en una carrera de fondo seguro que la IA es un mal menor (en cuanto a información falsa) que un humano. Una IA muy avanzada será más improbable que diga información falsa que un humano que puede hacerlo hasta para hacer el chiste.
 
Atrás
Arriba