Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

España abre una investigación contra ChatGPT por posibles violaciones de privacidad

Una imagen de archivo muestra la página de introducción de ChatGPT, la herramienta de inteligencia artificial.

Carlos del Castillo

13

La Agencia Española de Protección de Datos (AEPD) ha abierto una investigación de oficio contra la tecnológica estadounidense OpenAI por posibles violaciones de la normativa de protección de datos cometidas por su inteligencia artificial ChatGPT. El regulador español ha anunciado la decisión después de que el Consejo Europeo de Protección de Datos (EDPB, por sus siglas en inglés) comunicara este jueves la creación de un grupo de trabajo para coordinar a las diferentes agencias de privacidad europeas en un posible veto conjunto a ChatGPT. Esta cadena de decisiones llega después de que Italia decidiera bloquear ChatGPT en su territorio por la misma cuestión.

“Con el inicio de la investigación en España y la participación en el grupo de trabajo europeo, la AEPD actúa en paralelo en el marco de sus potestades y competencias como autoridad nacional de supervisión y control, además de en coordinación con sus homólogas europeas a través del Comité”, ha expresado el organismo en un comunicado remitido a elDiario.es.

“La Agencia aboga por el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial desde el pleno respeto a la legislación vigente, ya que considera que sólo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas”, ha añadido.

El movimiento del EDPB supone el primer paso para organizar una posición común en la UE sobre la inteligencia artificial y la privacidad. Este tipo de tecnología ha levantado las dudas de algunos expertos y juristas debido a que su entrenamiento absorbe ingentes cantidades de información que encuentra en Internet. La utiliza para aprender cómo se expresan las personas y ser capaz de generar textos sobre prácticamente cualquier temática, pero las empresas que la desarrollan no dan detalles de qué tipo de datos entran en ese entrenamiento y si en ellos hay información personal de los ciudadanos.

Este vacío de información derivó en el veto italiano contra ChatGPT, impuesto el 31 de octubre. Se trata de un bloqueo transitorio mientras resuelve su investigación sobre “la falta de información a usuarios y a todos los interesados de quienes recoge datos OpenAI” pero “sobre todo la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales”, explicó.

“En particular, [hemos detectado] tres violaciones diferentes”, explicó uno de los responsables del organismo transalpino al diario La Reppublica: “Haber recopilado los datos personales de miles de millones de personas para entrenar sus algoritmos sin informarles de esta circunstancia y, probablemente, sin tener una base legal adecuada; recopilar datos personales de los usuarios durante las conversaciones sin informarles del destino de estos datos; y generar contenidos, en respuesta a preguntas, que en ocasiones atribuyen a las personas hechos y circunstancias inexactas y falsas, proponiendo así una representación distorsionada de su identidad personal”.

Francia y Alemania también están analizando el uso de información personal que hace ChatGPT. OpenAI ha aceptado la decisión italiana y ha anunciado que devolverá el dinero a los usuarios italianos que han pagado el servicio “Plus” de ChatGPT. No obstante, se ha negado a comentar o comunicar detalles sobre la investigación o el uso de datos personales de su herramienta. elDiario.es ha contactado a la tecnológica para incluir su valoración sobre la nueva investigación anunciada por la AEPD, pero por el momento no ha obtenido respuesta.

Etiquetas
stats