Europa establece reglas para el desarrollo de la IA.
La Unión Europea ha implementado oficialmente la primera Ley de IA del mundo ( AI Act ), que tiene como objetivo garantizar la protección de los "derechos fundamentales" de los ciudadanos de los 27 países del bloque, al mismo tiempo que fomenta la inversión y la innovación en el sector de la IA en rápido crecimiento.
La AI Act se ha desarrollado durante varios años y constituye una guía integral para la gestión de la IA en Europa. La ley afectará principalmente a las grandes empresas tecnológicas estadounidenses, pero también se aplicará a muchas organizaciones fuera del ámbito tecnológico. Por ejemplo, las empresas que utilicen IA en sus operaciones también estarán sujetas a las nuevas normas.
Las restricciones se basan en cuatro niveles de riesgo, siendo la mayoría de los sistemas de IA clasificados como de riesgo mínimo, como los sistemas de recomendación de contenido o los filtros de spam.
Para cada nivel de riesgo, la Ley de IA de la UE establece sus propios requisitos:
Riesgo inaceptable: Estas aplicaciones están completamente prohibidas. Ejemplos incluyen sistemas de calificación social de ciudadanos, policía predictiva y tecnologías de reconocimiento de emociones en el lugar de trabajo o en escuelas.
Riesgo alto: Requisitos: Evaluación adecuada y minimización de riesgos. Uso de datos de entrenamiento de alta calidad para minimizar sesgos. Registro rutinario de actividades. Documentación detallada obligatoria de los modelos a las autoridades para evaluar su conformidad. Ejemplos incluyen vehículos autónomos, dispositivos médicos, sistemas de decisión de créditos, sistemas de evaluación educativa y sistemas de identificación biométrica remota.
Riesgo limitado: Requisitos: Transparencia en el uso de IA. Por ejemplo, los chatbots deben notificar a los usuarios que están interactuando con IA. Ejemplos incluyen chatbots y sistemas que utilizan IA para evaluar a empleados en procesos de contratación.
Riesgo mínimo: Requisitos: Requisitos básicos de seguridad y responsabilidad, sin necesidad de medidas especiales. Ejemplos incluyen aplicaciones que utilizan filtros de spam, sistemas de recomendación de contenido, videojuegos con elementos de IA y programas de ayuda en la previsión del tiempo.
El cumplimiento de todas las normas será supervisado por la Oficina de IA, que tendrá su sede en Bruselas. OpenAI ha prometido cumplir con la AI Act y colaborar estrechamente con la nueva Oficina de IA a medida que se implemente la ley.
La Ley de IA aún tiene un largo camino por recorrer antes de que la mayoría de sus disposiciones entren en vigor, lo cual no ocurrirá antes de 2026. Las restricciones para los sistemas de IA generativa comenzarán a aplicarse 12 meses después de la entrada en vigor de la ley, y los sistemas ya disponibles en el mercado tendrán un período de transición de 36 meses para cumplir con los nuevos requisitos.
Las empresas que infrinjan la Ley de IA de la UE podrán ser multadas con hasta 35 millones de euros o el 7% de sus ingresos anuales mundiales, lo que sea mayor. Esto es más alto que las multas impuestas por el GDPR, lo que subraya la seriedad de la UE en la regulación de la IA.