La legalidad de ChatGPT en protección de datos, bajo la lupa
Europa investiga, mientras que EE.UU y China estudian medidas para regular la IA generativa.
El Comité Europeo de Protección de Datos lanza un grupo de trabajo para coordinar las investigaciones de los distintos países europeos, mientras que EE.UU y China estudian medidas para regular las herramientas de IA generativa.
La Agencia Española de Protección de Datos (AEPD) ha iniciado una investigación sobre la forma de gestionar los datos personales de la firma estadounidense Open AI, más conocida por ser creadora de ChatGPT, ante las sospechas del organismo de un posible incumplimiento de la normativa.
A esto se suma el nuevo grupo de trabajo que ha creado el Comité Europeo de Protección de Datos (EDPB), con el que busca fomentar la cooperación e intercambiar información sobre las acciones llevadas a cabo por las autoridades de protección de datos. Este grupo surge tras la petición realizada la semana pasada por la agencia española para que se incluyera ChatGPT como tema a abordar.
Según la AEPD, “los tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeo en aplicación del Reglamento General de Protección de Datos (RPGD)”. Desde la agencia abogan por el desarrollo y la puesta en marcha de tecnologías innovadoras como la IA “desde el pleno respeto a la legislación vigente”, ya que “solo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas”.
Esta iniciativa se realiza apenas semanas después de que la Autoridad Italiana de Protección de Datos prohibiera de forma temporal la herramienta de IA generativa de OpenAI por incumplimiento del RGPD en la manera que tiene de gestionar la compañía los datos personales de los usuarios italianos.
En su resolución, el organismo identificó que la empresa no informaba a los usuarios a través de un aviso o notificación de que sus datos estaban siendo recogidos; no existía un mecanismo que verificase la edad de los usuarios; y procesaba datos personales inexactos. Además de la propia brecha de seguridad que sufrió OpenAI el pasado 20 de marzo, y que llevó a la exposición parcial de conversaciones y detalles personales de algunos usuarios como direcciones de email y los cuatro últimos dígitos de las tarjetas bancarias.
EE.UU y China avanzan medidas
Cada vez son más las naciones que empiezan a mostrar su inquietud por las soluciones de IA generativa que están apareciendo en los últimos meses y que comenzó con el lanzamiento el pasado diciembre de ChatGPT.
Esta semana, el Departamento de Comercio de Estados Unidos registró una solicitud formal de propuestas sobre medidas de rendición de cuentas, que incluye si los nuevos modelos de IA “potencialmente peligrosos” deberían pasar por un proceso de certificación antes de su lanzamiento.
También se ha posicionado China. El pasado martes, la Administración del Ciberespacio del país presentó un borrador con medidas destinadas a regular los servicios de IA generativa y aseguró que quiere que las empresas presenten evaluaciones de seguridad a las autoridades antes de lanzar sus productos al público.
Entre las medidas recogidas se destaca la responsabilidad de los proveedores de asegurar que los datos que usan para entrenar sus productos de IA son legítimos y que deben tomar medidas para evitar la discriminación al diseñar algoritmos y entrenar esos datos. Además de garantizar que el contenido generado por estas herramientas se alinea con los valores socialistas centrales del país.