Usuarios de Slack alarmados al descubrir que sus mensajes se usan para entrenar «IA»

La reciente revelación de que Slack está utilizando los mensajes, contenidos y archivos de sus usuarios para entrenar sus modelos globales de inteligencia artificial (IA) ha causado indignación entre la comunidad de usuarios de la plataforma. Tras el lanzamiento de Slack AI en febrero, la empresa ha defendido su política, la cual, por defecto, recopila datos de los clientes para este propósito.

Polémica en torno a la política de IA de Slack

Desde que Ars Technica publicó un detallado informe sobre las prácticas de Slack, la controversia ha ido en aumento. A pesar de la amplia cobertura mediática y la multitud de declaraciones y publicaciones de Slack sobre sus políticas de IA, aún hay una gran confusión acerca de qué datos específicos se están utilizando para entrenar estos modelos.

Ashley Belanger de Ars Technica ha sido una de las voces más críticas, señalando que aunque nunca ha usado Slack, el alcance del escándalo ha llegado mucho más allá de la propia plataforma, inundando foros y redes sociales. La falta de claridad y transparencia por parte de Slack ha dejado a muchos usuarios preocupados y desconfiados sobre el uso de sus datos.

Uso de IA en otras plataformas: un ejemplo positivo

No todas las implementaciones de IA generan tanta controversia. Un ejemplo reciente y positivo es el juego de estrategia 4X «Stellaris», que lanzó una actualización llamada «The Machine Age». Según las nuevas reglas de Steam sobre el uso de IA en juegos, la página de Steam del juego incluye una aclaración sobre cómo se emplea la IA: para generar ideas de contenido y material visual de referencia en las primeras fases del desarrollo, y para crear voces de personajes de IA con el consentimiento y la compensación de los actores de voz originales.

En este caso, todo el proceso es transparente y consensuado, mostrando cómo la IA puede ser utilizada éticamente para mejorar productos sin violar derechos o licencias.

La falta de transparencia de Slack

Por el contrario, Slack, junto con otras herramientas como Copilot y OpenAI, han sido criticados por su opacidad y la falta de consentimiento claro. A menudo, estas empresas solo buscan el consentimiento cuando los involucrados tienen el poder suficiente para causar problemas. Aunque afirman que su IA no está robando el trabajo de otros, también sostienen que sus modelos no pueden funcionar sin utilizar el trabajo de terceros, lo que genera desconfianza y preocupación sobre la privacidad y la propiedad de los datos.

Recomendaciones para los usuarios de Slack

Si usas Slack en tu organización, es recomendable discutir con tu jefe la opción de excluir a la empresa de las prácticas de recopilación de datos de Slack. Es crucial tener en cuenta la cantidad de información privada y datos corporativos que podrían estar siendo expuestos sin el conocimiento o consentimiento adecuado.

Conclusión

La polémica en torno al uso de datos por parte de Slack para entrenar modelos de IA subraya la importancia de la transparencia y el consentimiento en el uso de tecnologías emergentes. Mientras que ejemplos como el de «Stellaris» muestran que la IA puede ser implementada de manera ética y consensuada, casos como el de Slack evidencian la necesidad de una mayor claridad y regulación para proteger los derechos y la privacidad de los usuarios.

Vía: Revista Cloud

Scroll al inicio