España declara la guerra a las falsificaciones: multas millonarias por el uso encubierto de IA

España declara la guerra a las falsificaciones: multas millonarias por el uso encubierto de IA

¿Logrará el país frenar los deepfakes con las nuevas normas?

image

El gobierno de España ha aprobado un proyecto de ley que amenaza a las empresas con enormes multas por utilizar contenido generado por inteligencia artificial sin el debido etiquetado. Las nuevas normas están diseñadas para limitar la propagación de los deepfakes, imágenes, vídeos y audios falsificados que parecen completamente reales.

Según explicó el ministro de Transformación Digital, Óscar López, el documento se basa en la recién adoptada Ley de Inteligencia Artificial de la Unión Europea, que exige una estricta transparencia a los sistemas que suponen riesgos significativos para la sociedad.

López destacó que las redes neuronales son una herramienta extremadamente poderosa, capaz tanto de mejorar la vida de las personas como de convertirse en una fuente de desinformación y en una amenaza para la democracia. Nadie está a salvo de los deepfakes, ya que los algoritmos modernos permiten crear falsificaciones tan convincentes que resulta cada vez más difícil distinguirlas de la realidad.

De hecho, España es uno de los primeros países de la UE en aplicar las normas europeas de regulación en este ámbito. Los expertos señalan que el enfoque europeo es mucho más estricto que el estadounidense, donde la industria depende en gran medida del cumplimiento voluntario de normas éticas y donde la legislación varía considerablemente entre estados. En nuestro caso, ni siquiera hemos profundizado lo suficiente en este tema.

Las empresas que no etiqueten el contenido generado por IA se enfrentarán a severas sanciones. Las multas pueden alcanzar los 35 millones de euros o el 7 % de la facturación anual del infractor. No obstante, el proyecto de ley aún debe ser aprobado por la Cámara Baja del Parlamento.

También se prohibirá el uso de técnicas de manipulación encubiertas dirigidas a grupos vulnerables. Esto incluye sonidos imperceptibles para el oído humano o imágenes invisibles a simple vista. Como ejemplos concretos, el ministro mencionó chatbots que incitan a personas con adicción al juego a realizar apuestas o juguetes que impulsan a los niños a realizar acciones peligrosas.

Además, las empresas no podrán recopilar datos biométricos de los ciudadanos para su evaluación automática mediante IA. Se prohibirá la creación de expedientes digitales, el análisis del comportamiento y las características personales de las personas para decidir si concederles un crédito, ofrecerles un servicio o denegárselo. Tampoco se podrá utilizar la IA para predecir la probabilidad de que una persona cometa un delito.

Sin embargo, las fuerzas de seguridad conservarán el derecho a utilizar sistemas de vigilancia biométrica en tiempo real en espacios públicos cuando sea necesario para la seguridad nacional.

El cumplimiento de las nuevas normas estará supervisado por la recientemente creada Agencia de Supervisión de la Inteligencia Artificial (AESIA). No obstante, en algunas áreas específicas, el control seguirá estando a cargo de los reguladores competentes. Entre estos ámbitos se incluyen la protección de datos personales, la lucha contra la delincuencia, la organización de elecciones, las calificaciones crediticias, los seguros y las operaciones en los mercados de capitales.

¿Tu Wi-Fi doméstico es una fortaleza o una casa de cartón?

Descubre cómo construir una muralla impenetrable