I
IsaiAlexei
Gamma
Verificado por Whatsapp
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
Más de 1.100 expertos en inteligencia artificial han firmado una petición pidiendo a los desarrolladores de IA que dejen de entrenar modelos más potentes que ChatGPT-4 de OpenAI durante al menos seis meses. Sin embargo, Eliezer Yudkowsky, un teórico de la decisión de EE. UU. E investigador principal del Instituto de Investigación de Inteligencia Máquina, no firmó la petición porque cree que es demasiado débil y subestima la gravedad de la situación.
Yudkowsky sostiene que no se trata de la inteligencia "competitiva para los humanos", sino de lo que sucederá después de que la IA llegue a una inteligencia sobrehumana, ya que los umbrales clave pueden no ser obvios y es posible que un laboratorio de investigación cruce líneas críticas sin darse cuenta. Según él, resolver la seguridad de la inteligencia sobrehumana podría tomar al menos la mitad del tiempo que tardamos en alcanzar las capacidades actuales de la IA, y si se comete un error, no se puede aprender de él porque la humanidad estaría muerta. Cree que no estamos preparados ni en camino de estar preparados en un plazo razonable y que si mantenemos algo en el campo naciente de la Inteligencia General Artificial con los estándares menores de rigor de ingeniería, todo el campo se cerraría mañana.
¿Que piensan al respecto? ¿Firmarían esa petición?
Yudkowsky sostiene que no se trata de la inteligencia "competitiva para los humanos", sino de lo que sucederá después de que la IA llegue a una inteligencia sobrehumana, ya que los umbrales clave pueden no ser obvios y es posible que un laboratorio de investigación cruce líneas críticas sin darse cuenta. Según él, resolver la seguridad de la inteligencia sobrehumana podría tomar al menos la mitad del tiempo que tardamos en alcanzar las capacidades actuales de la IA, y si se comete un error, no se puede aprender de él porque la humanidad estaría muerta. Cree que no estamos preparados ni en camino de estar preparados en un plazo razonable y que si mantenemos algo en el campo naciente de la Inteligencia General Artificial con los estándares menores de rigor de ingeniería, todo el campo se cerraría mañana.
¿Que piensan al respecto? ¿Firmarían esa petición?