La Agencia Española de Protección de Datos investiga ChatGPT por “posible incumplimiento de la normativa”

  • Autor Autor duque13
  • Fecha de inicio Fecha de inicio
duque13

duque13

Zeta
Verificado
Verificación en dos pasos activada
Verificado por Whatsapp
Verificado por Binance
Las dudas sobre el impacto de la aplicación de inteligencia artificial creada por la empresa OpenAI, ChatGPT, ha llegado a España. Tras las sospechas que ha despertado en los Gobiernos de Italia, Estados Unidos y China, la Agencia Española de Protección de Datos (AEPD) ha anunciado este jueves que “ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense por un posible incumplimiento de la normativa”, según recoge un comunicado de la entidad estatal española.

Según ha informado la AEPD, la iniciativa surgió la semana pasada, cuanto la agencia española solicitó al Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) “que se incluyera el servicio ChatGPT como tema a abordar en su reunión plenaria, al considerar que los tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeo en aplicación del Reglamento General de Protección de Datos”.

MÁS INFORMACIÓN
Italia bloquea el uso de ChatGPT por incumplir la normativa de protección de datos
La propuesta ha sido recogida por el EDPB, del que forma parte la agencia española, en la reunión que han celebrado hoy y se ha decidido crear un grupo de trabajo para la cooperación y el intercambio de información entre las entidades que forman parte del Comité Europeo de Protección de Datos.

De esta forma, la investigación española no será singular e individual, sino que formará parte de la que emprendan el resto de las entidades responsables de la protección de datos.

La AEPD matiza que la investigación no se abre contra “el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial” sino para garantizar “el pleno respeto a la legislación vigente”. “Sólo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas”, concluye.

A finales de marzo, Italia decidió bloquear el uso de ChatGPT por incumplir la normativa de protección de datos y carecer de filtros para menores. Italia se ha convertido así en el primer país europeo en adoptar medidas drásticas al considerar que la herramienta no respeta la ley de protección de datos de los consumidores. La medida se levantará cuando demuestre que cumple la normativa italiana sobre privacidad.

Francia, Irlanda y Alemania requirieron de inmediato información a las autoridades italianas y, tras los contactos, el comisionado alemán de protección de datos se mostró también partidario de bloquear ChatGPT por el riesgo para la seguridad de los datos.

Por su parte, la Comisión Nacional de Informática y de las Libertades (el organismo para el control de la privacidad de Francia) anunció, como ha hecho ahora España, que investiga a la aplicación por las quejas presentadas por los usuarios.

El comisario europeo de Mercado Interior, Thierry Breton, ya había advertido de las dudas de Bruselas sobre los desarrollos de esta tecnología y adelantó que los contenidos generados por inteligencia artificial deben llevar una advertencia específica de su origen. “En todo lo que sea generado por inteligencias artificiales, ya sean textos o imágenes, habrá una obligación de notificar que ha sido creado por estas”.

Todas las dudas europeas han confluido ahora en la decisión de la EDPB de crear el grupo de trabajos de investigación del que forma parte la Agencia Española de Protección de Datos.

Hace solo dos días, La Administración de Joe Biden estableció un periodo de 60 días para recoger ideas sobre cómo legislar contra los efectos no deseados de estos programas basados en inteligencia artificial y que pueden suponer un riesgo en campos tan dispares como la privacidad, la desinformación o el mercado laboral.

“Es sorprendente ver lo que estas herramientas pueden hacer incluso en su etapa inicial. Sabemos que debemos poner en marcha algunas medidas de protección para asegurarnos de que se utilicen de manera responsable”, ha afirmado Alan Davidson, director de la Administración Nacional de Telecomunicaciones e Información y promotor de la iniciativa legislativa estadounidense.

La Administración del Ciberespacio de China también ha presentado el pasado martes una propuesta normativa para regular los servicios de inteligencia artificial generativa. De acuerdo con el texto, el Gobierno de Pekín pretende que las empresas de estas tecnologías presenten evaluaciones de seguridad a las autoridades antes de lanzar sus productos al público, según recogió Reuters. Las reglas redactadas por este regulador señalan que los proveedores serán responsables de la legitimidad de los datos utilizados para entrenar sus productos y de tomar medidas para evitar la discriminación al diseñar algoritmos y entrenar esos datos.

El pasado 29 de marzo, más de un millar de especialistas, entre los que se encontraban Elon Musk, el cofundador de Apple Steve Wozniak y el historiador Yuval N. Harari, reclamaron en una carta conjunta una moratoria de seis meses en el desarrollo de estos programas. “Los laboratorios de inteligencia artificial han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, advertía la misiva.

Fuente: https://elpais.com/tecnologia/2023-...-normativa.html?sma=newsletter_alerta20230413
 
La discriminación geográfica es una mierda, siempre quedarán los VPN... 🦾
 
Atrás
Arriba