Proponen legalizar el hackeo de IA en EE.UU.

Proponen legalizar el hackeo de IA en EE.UU.

Científicos luchan por el derecho a investigar el alma de la IA sin consecuencias.

image

Un grupo de científicos y hackers busca autorización para violar los términos de uso de las compañías de inteligencia artificial (IA) con el fin de realizar investigaciones de buena fe, revelando sesgos, imprecisiones y datos de entrenamiento, sin riesgo de persecución legal.

El gobierno de EE.UU. está considerando la posibilidad de incluir una excepción en la legislación sobre derechos de autor, lo que permitirá eludir las medidas de protección en los sistemas de IA. Esto facilitará la investigación del funcionamiento de la IA, identificando sesgos, discriminación y conclusiones inexactas, así como obteniendo más información sobre los datos de entrenamiento. La excepción permitirá realizar investigaciones de seguridad y académicas de buena fe, incluso si se requiere eludir los sistemas de protección.

El Departamento de Justicia de EE.UU. apoya la propuesta, argumentando que las investigaciones de buena fe pueden revelar fugas de datos y sistemas cuyas conclusiones no son seguras o son inexactas. Esto es especialmente importante cuando la IA se utiliza para fines significativos, donde los errores pueden causar daños graves.

Gran parte de lo que se sabe sobre el funcionamiento de las herramientas de IA cerradas, como ChatGPT y Midjourney, se ha descubierto gracias a investigadores, periodistas y usuarios que intencionalmente intentan engañar a los sistemas para aprender más sobre los datos de entrenamiento, sus sesgos y debilidades.

Sin embargo, estas investigaciones a menudo violan los términos de uso. Por ejemplo, los términos de uso de OpenAI prohíben los intentos de ingeniería inversa o la detección del código fuente de sus servicios, así como eludir las medidas de protección.

Los investigadores del MIT que promueven la propuesta señalaron que existen muchas preocupaciones sobre los modelos de IA, su estructura, sesgos y uso para la discriminación. Sin embargo, los investigadores a menudo enfrentan bloqueos de cuentas por investigaciones de buena fe o temen consecuencias legales. Estas condiciones obstaculizan la investigación, y las compañías no siempre son transparentes sobre su cumplimiento.

La excepción se aplicará a la sección 1201 de la Ley de Derechos de Autor para la Era Digital (DMCA). Otras excepciones de esta sección ya permiten hackear dispositivos para repararlos y protegen a los investigadores de seguridad que buscan errores y vulnerabilidades, y en algunos casos protegen a aquellos que intentan archivar o preservar ciertos tipos de contenido.

Hay muchos ejemplos de artículos académicos, investigaciones periodísticas y proyectos de investigación que requieren hackear o engañar a las herramientas de IA para descubrir datos de entrenamiento, sesgos o falta de fiabilidad.

Los autores de la propuesta publicaron un análisis que menciona los términos de uso anteriores de Midjourney, amenazando con demandas por infracción de propiedad intelectual. Los investigadores argumentan que las compañías de IA han comenzado a utilizar sus términos para disuadir el análisis.

Muchas investigaciones se centran en intentar que la IA reproduzca obras protegidas por derechos de autor para demostrar que los modelos se entrenaron con esos materiales. Esta táctica fue utilizada por la industria musical para demostrar que las herramientas de IA Suno y Udio se entrenaron con música protegida por derechos de autor, lo que se convirtió en un elemento central de la demanda contra las compañías. Se puede imaginar un escenario donde los investigadores usan la IA para reproducir obras protegidas, lo que lleva a consecuencias negativas para la compañía de IA, que acusa al investigador de violar los términos de uso.

Harley Geiger, de la Oficina de Derechos de Autor y del Consejo de Política de Hackeo, señaló que la excepción es crucial para identificar y corregir errores en los algoritmos. La falta de una protección legal clara según la sección 1201 de la DMCA afecta negativamente a estas investigaciones. La excepción no impedirá que las compañías intenten evitar tales investigaciones, pero protegerá legalmente a los investigadores que violen los términos de uso para realizar su análisis.

En las audiencias de esta primavera, Morgan Reed, de la Asociación de Aplicaciones, que representa a muchas compañías de IA, argumentó que los investigadores deben obtener el consentimiento previo de las compañías de IA para realizar análisis. Sin notificación, el especialista se considera potencialmente un hacker malintencionado. Reed enfatizó que los investigadores buscan protección contra la responsabilidad después de haber realizado sus investigaciones.

La Asociación de Control de Copias de DVD (DVD Copy Control Association), que representa a grandes estudios de cine y es pionera en DRM, también se opone a la excepción propuesta.

Tu privacidad está muriendo lentamente, pero nosotros podemos salvarla

¡Únete a nosotros!