Gigantes como Walmart, Delta, Chevron y Starbucks han implementado sistemas de inteligencia artificial para supervisar las comunicaciones de su staff en plataformas digitales. Estos sistemas prometen mejorar la comprensión del clima laboral y detectar comportamientos problemáticos, pero plantean interrogantes sobre la privacidad y el equilibrio entre seguridad y derechos.
En el dinámico entorno laboral actual, donde la tecnología y la digitalización juegan un papel fundamental, la inteligencia artificial (IA) se ha convertido en una herramienta poderosa, incluso en el monitoreo de las interacciones de los empleados.
Según un reporte de CNBC, grandes corporaciones como Walmart, Delta, Chevron y Starbucks, junto con empresas europeas como Nestlé y AstraZeneca, han recurrido a empresas como Aware, una startup con sede en Columbus, Ohio, para implementar sistemas de IA que analizan las conversaciones en plataformas como Slack, Microsoft Teams y Zoom.
Jeff Schumann, cofundador y CEO de Aware, describe estos sistemas como una forma de "comprender el riesgo dentro de las comunicaciones empresariales". La IA de Aware puede proporcionar una lectura del sentimiento de los empleados en tiempo real, identificando posibles problemas como acoso, discriminación o no conformidad. Además, permite a las empresas evaluar cómo diferentes grupos de empleados reaccionan ante políticas corporativas o campañas de marketing, lo que facilita la toma de decisiones informadas.
Sin embargo, esta creciente tendencia hacia la vigilancia empresarial mediante IA plantea preocupaciones éticas y de privacidad. Jutta Williams, cofundadora de Humane Intelligence, advirtió en el reporte sobre el peligro de convertir el pensamiento en un delito. El uso de IA para monitorear las comunicaciones de los empleados podría generar un clima de desconfianza y tener un impacto negativo en la cultura laboral.
Además, la cuestión de la privacidad es un tema candente. Aunque Aware asegura proteger la privacidad de los empleados mediante la anonimización de datos, expertos como Amba Kak, directora ejecutiva del Instituto AI Now, señaló el artículo que incluso la agregación o anonimización de datos no garantiza la privacidad total. Los modelos de IA pueden inferir información personal con precisión a partir de datos agregados, lo que plantea interrogantes sobre la protección de los derechos individuales.
Otro aspecto a considerar es la falta de transparencia y la ausencia de recursos para los empleados que son objeto de investigaciones. ¿Qué pasa si una interacción es malinterpretada por el algoritmo y resulta en acciones disciplinarias injustas? Estas son preocupaciones legítimas que deben abordarse para garantizar un equilibrio adecuado entre seguridad y derechos de los trabajadores.
Si bien la vigilancia empresarial mediante IA puede ofrecer beneficios en términos de detección temprana de problemas y mejora del clima laboral, es crucial abordar estas preocupaciones éticas y de privacidad de manera proactiva. La regulación y la supervisión son fundamentales para garantizar que estas tecnologías se utilicen de manera ética y responsable, protegiendo así los derechos fundamentales de los trabajadores en la era digital.
Comments