Experto en Inteligencia Artificial dice que pausar el desarrollo no es suficiente y que se debe detener todo.

  • Autor Autor IsaiAlexei
  • Fecha de inicio Fecha de inicio
I

IsaiAlexei

Gamma
Verificado por Whatsapp
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
Más de 1.100 expertos en inteligencia artificial han firmado una petición pidiendo a los desarrolladores de IA que dejen de entrenar modelos más potentes que ChatGPT-4 de OpenAI durante al menos seis meses. Sin embargo, Eliezer Yudkowsky, un teórico de la decisión de EE. UU. E investigador principal del Instituto de Investigación de Inteligencia Máquina, no firmó la petición porque cree que es demasiado débil y subestima la gravedad de la situación.

Yudkowsky sostiene que no se trata de la inteligencia "competitiva para los humanos", sino de lo que sucederá después de que la IA llegue a una inteligencia sobrehumana, ya que los umbrales clave pueden no ser obvios y es posible que un laboratorio de investigación cruce líneas críticas sin darse cuenta. Según él, resolver la seguridad de la inteligencia sobrehumana podría tomar al menos la mitad del tiempo que tardamos en alcanzar las capacidades actuales de la IA, y si se comete un error, no se puede aprender de él porque la humanidad estaría muerta. Cree que no estamos preparados ni en camino de estar preparados en un plazo razonable y que si mantenemos algo en el campo naciente de la Inteligencia General Artificial con los estándares menores de rigor de ingeniería, todo el campo se cerraría mañana.

¿Que piensan al respecto? ¿Firmarían esa petición?
 
Lamentablemente es un adaptarse rápido o morir.
 
¿Experto en inteligencia artificial y echa tierra para que su nicho se vaya al hoyo? Si eres experto es porque has dedicado muchas horas y probablemente viva de ello. Me da que no será tan experto. O tiene intereses.
 
Todos a volvernos prompt engineer!
 
Las IA vinieron para quedarse, y estamos solo en los inicios, así que a adaptarse a todo lo que se viene en los proximos 20 años, no me sorprendería que en 15 años en los noticieron ya no hayan personas sino animaciones hechas en ia
 
Los CEOS de muchas grandes compañías están alarmados porque su competencia puede mejorar a tal punto de superarlos, eso es lo que pienso yo, todos velan por sus intereses monetario, o nos adaptamos a esta revolución o nos morimos intentándolo.
 
No creo que dicha petición detenga el avance de la industria IA, ya dentro de este mercado hay muchas compañías grandes buscando mejorar su propio servicios y también encontrando la manera de generar mucho mas dinero. Yo creo que la IA actual es lo suficientemente inteligente para superar la capacidad de ciertas personas, dentro de poco su capacidad sera superior a Einstein. ¿Será beneficioso para la humana? Eso esta por verse
 
Las IA vinieron para quedarse, y estamos solo en los inicios, así que a adaptarse a todo lo que se viene en los proximos 20 años, no me sorprendería que en 15 años en los noticieron ya no hayan personas sino animaciones hechas en ia
ya se cumplió tu predicción amigo, ya está sucediendo actualmente, pero yo creo que para el otro año o el que sigue, ya no nos daremos cuenta si es AI o no la que sale.
 
ya se cumplió tu predicción amigo, ya está sucediendo actualmente, pero yo creo que para el otro año o el que sigue, ya no nos daremos cuenta si es AI o no la que sale.
Pienso que deberían tener un aviso predeterminado, sobre si un contenido es realizado con AI o no.
 
Miedo Humano
Miedo Animal
A lo Desconocido a lo que nos supera a lo que no conocemos
Es algo Normal ese miedo
El ser humano lleva Siglos matándose destruyendo y reconstruyendo
 
Pienso que deberían tener un aviso predeterminado, sobre si un contenido es realizado con AI o no.
Si seria bueno que el contenido generado por IA tuviera una marca de agua para identificarla como los anuncios que dicen por una esquina que son anuncios pero ya a esta altura no se lo colocarán.
 
Creo que por ahi se viene algo asi.
 
Ya nos estan dominando, vamos a ser esclavos de la ia, el momento a llegado
 
Suena muy catastrofista Eliezer Yudkowsky. No sé si todos recuerden que Matrix en 1999 ponía a IA como el mayor enemigo de la Humanidad y la razón por la que "en el siglo XXII la Humanidad entera saltó de júbilo y autocomplacencia con IA" o algo así. Es inquietante, yo estoy en el medio, tratando de usarla en lo más que puedo pero sin demeritar las voces más duras. Como Elon Musk que siendo de personalidad imprudente llegue a decir que "sabe que irá y merece ir al infierno" y luego pida frenar a la IA. Me pregunto qué sabe el hombre.
Lo otro que se me ocurre es que la IA sea tan buena para la gente que por eso quieren que no sea tan accesible para todos y la demonicen...
 
En estos caso el "Para que" es improtante, frenar el avance podría tener sentido si existe una estrategia de contigencia.
 
Atrás
Arriba