Slack: «Continuaremos alimentando a la IA con sus datos, pero no se preocupen»

Slack: «Continuaremos alimentando a la IA con sus datos, pero no se preocupen»

¿Qué es más importante: la personalización o la privacidad? Parece que la compañía está ocultando algo.

image

En respuesta al descontento de los usuarios indignados porque las políticas de privacidad de Slack permitían utilizar sus datos para entrenar la IA, la compañía realizó cambios en sus reglas. Anteriormente, la política del servicio permitía analizar los datos de los clientes para entrenar modelos de IA, a menos que se indicara lo contrario. Sin embargo, difícilmente se puede decir que los cambios introducidos estén orientados a proteger la privacidad de los usuarios.

Slack afirma que los datos nunca abandonan la plataforma y no se utilizan para entrenar modelos de terceros. Los modelos de aprendizaje automático, según asegura la compañía, se utilizan exclusivamente dentro de la plataforma para mejorar las recomendaciones de canales, emojis y resultados de búsqueda. Además, estos modelos no tienen acceso al contenido de los mensajes privados, canales privados y públicos, lo que elimina la posibilidad de recordar o reproducir los datos de los clientes.

Además, para su producto Slack AI, la compañía utiliza modelos LLM de terceros, sin almacenar los datos de los clientes. Los modelos se alojan en la propia infraestructura de AWS, lo que proporciona una protección adicional de los datos de los usuarios.

Sin embargo, los principios de privacidad actualizados enfatizan que los datos de los clientes se analizan exclusivamente para el desarrollo de modelos de IA no generativos, como las recomendaciones de emojis y canales. Un representante de Slack declaró que la política de la compañía no cambió, y que la actualización solo tenía como objetivo mejorar la claridad de las formulaciones.

No obstante, el uso de datos por defecto plantea interrogantes a los reguladores. Para desactivar esta función, los propietarios de los espacios de trabajo deben enviar manualmente una solicitud al servicio de asistencia de Slack. No se especifica el tiempo de procesamiento de dichas solicitudes.

La compañía explica que el uso de datos ayuda a comprender mejor las consultas de los usuarios, mejorar el autocompletado y ofrecer emojis apropiados. Dicha personalización solo es posible mediante el análisis de las interacciones de los usuarios con la plataforma.

Aaron Mauer, uno de los ingenieros de Slack, declaró que la compañía no entrena modelos LLM serios con los datos de los clientes. Sin embargo, los términos de uso del servicio indican que esta posibilidad sigue existiendo.

Matthew Hodgson, director ejecutivo del mensajero Element en el protocolo Matrix, calificó el uso de datos personales de los clientes para entrenar la IA como «una locura». Señaló que la idea misma de transmitir datos sin cifrar a modelos de IA con una política opaca resulta preocupante.

Cabe destacar que Slack no es la única compañía que utiliza datos de clientes para entrenar modelos de IA. La red social Reddit recientemente también anunció su colaboración con OpenAI, proporcionando publicaciones públicas del foro para ser utilizadas por ChatGPT. Sin embargo, los usuarios de plataformas corporativas seguras como Slack pueden sorprenderse al descubrir que sus datos se utilizan para entrenar modelos globales, a menos que rechacen esta opción.

Por lo tanto, este mini-escándalo de Slack demuestra claramente la necesidad de que los usuarios modernos controlen atentamente el uso de sus datos, especialmente en medio del creciente interés por la inteligencia artificial en la industria tecnológica y su implementación generalizada por parte de diversas compañías en diferentes ámbitos y sectores.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!