La regulación de la IA está alcanzando un nuevo nivel de rigor.
La autoridad italiana de protección de datos impuso una multa a OpenAI por infracciones relacionadas con el tratamiento de datos personales por parte del chatbot ChatGPT. La empresa deberá pagar una multa de 15 millones de euros y realizar una campaña informativa de seis meses en los medios italianos para explicar cómo funciona ChatGPT, haciendo énfasis en la recopilación de datos.
La base de las sanciones fue el incumplimiento del aviso del regulador sobre una filtración de datos en marzo de 2023. Según los resultados de la investigación, se descubrió que OpenAI utilizó datos de usuarios para entrenar a ChatGPT sin una base legal adecuada. Además, se violaron los principios de transparencia y las obligaciones de informar a los usuarios.
Asimismo, el regulador señaló la falta de mecanismos para verificar la edad, lo que genera un riesgo de acceso por parte de niños menores de 13 años a respuestas inapropiadas para su desarrollo.
Adicionalmente, el caso fue remitido a la autoridad irlandesa de protección de datos, que es el principal organismo supervisor en el marco del Reglamento General de Protección de Datos (GDPR) de la UE. El regulador irlandés continuará investigando posibles infracciones tras la apertura de la oficina europea de OpenAI.
La noticia surgió un día después de la publicación por parte del Consejo Europeo de Protección de Datos (EDPB) de un documento dedicado al uso de datos personales en el desarrollo y la aplicación de modelos de inteligencia artificial.