Las principales empresas de TI se comprometen con el desarrollo responsable de tecnologías.
16 líderes mundiales en el ámbito de la IA, incluyendo a Google, Microsoft, IBM y OpenAI, firmaron compromisos para desactivar sus tecnologías en caso de un posible impacto peligroso. El evento tuvo lugar en Corea del Sur durante la cumbre AI Safety Summit.
En el marco de la cumbre se adoptaron nuevos compromisos para la seguridad de las tecnologías avanzadas de IA. Las empresas participantes acordaron publicar sus metodologías de evaluación de riesgos asociados con sus modelos de IA, describir los niveles aceptables de riesgo y las medidas a tomar en caso de que estos niveles se superen. Si no es posible reducir los riesgos por debajo del umbral establecido, las empresas se comprometen a no desarrollar ni implementar los modelos y sistemas correspondientes.
Aunque el compromiso suena prometedor, los detalles aún no se han elaborado. Estos se discutirán en la Cumbre de Acción sobre IA, que se llevará a cabo a principios de 2025.
Las empresas que firmaron el documento en Seúl también se comprometieron a:
Durante la cumbre también se adoptó la Declaración de Seúl. En el documento se destaca la importancia de garantizar la compatibilidad entre los sistemas de gestión de IA, basándose en un enfoque orientado al riesgo, para maximizar los beneficios y eliminar una amplia gama de riesgos asociados con la IA. Esto es necesario para el diseño, desarrollo, despliegue y uso seguro, fiable y confiable de la IA.