La inteligencia artificial está impulsando la eficiencia y productividad de muchas industrias y descubriendo nuevas formas de trabajar. Pero también está generando aplicaciones que ponen contra las cuerdas aspectos como la privacidad o la ética corporativa. Muestra de ello es la forma en que grandes compañías están utilizando la tecnología para analizar los mensajes de los empleados y monitorizar sus conversaciones.
Lo están haciendo a través de los servicios y soluciones de la start-up Aware, fundada en 2017 y ubicada en Ohio (Estados Unidos), cuya plataforma de inteligencia artificial “transforma las conversaciones en el lugar de trabajo en conocimientos prácticos, lo que permite a los líderes tomar decisiones más rápidas y más informadas”, según explican en su sitio web corporativo.
Además de texto, la herramienta también considera imágenes y vídeos
Aseguran que sus modelos de aprendizaje automático están diseñados para comprender el contexto humano de las conversaciones que tienen lugar a través de plataformas como Slack, Teams, WebEx, Zoom, Reddit, Qualtrics o WorkJam. Además de texto, la herramienta tiene en consideración imágenes y vídeos, por lo que puede analizar más de 100 millones de contenidos cada día.
Tal y como informa CNBC, firmas como Walmart, Delta Air Lines, T-Mobile, Chevron y Starbucks, o las europeas Nestlé y AstraZeneca, usan la herramienta para analizar, entre otras cosas, cómo responden los empleados a una nueva política corporativa o a una campaña; o para identificar posibles riesgos internos, como casos de intimidación, acoso o discriminación.
Desde Aware aseguran que la plataforma no hace seguimientos individualizados de los mensajes, sino que obtiene patrones comunes y colectivos de las conversaciones. Estos pueden agregarse y clasificarse atendiendo a la edad, la ubicación, la división, la antigüedad o la función del empleado.. No obstante, la empresa podría facilitar datos individuales al responsable designado por la empresa cliente en caso de amenazas extremas o comportamientos de riesgo predeterminados por la compañía.
Según recoge el citado medio, el repositorio de datos de la empresa contiene aproximadamente 6.500 millones de mensajes, que representan alrededor de 20.000 millones de interacciones individuales entre más de 3 millones de empleados.
Con todo, la monitorización interna para el control de riesgos no es algo nuevo. Es algo que se ha dado especialmente entre las grande corporaciones estadounidenses para evaluar asuntos como el espionaje corporativo a través del correo electrónico. No obstante, la aplicación de la inteligencia artificial y la monitorización de las plataformas de mensajería instantánea en el lugar de trabajo añade una nueva capa ética a la práctica.
Noticias Relacionadas
Amazon quiere ayudar a hacer compras más informadas con Rufus, su nuevo asistente de IA
{"id":25615,"titular":"Amazon quiere ayudar a hacer compras más informadas con Rufus, su nuevo asistente de IA","prefijo":null,"slug":null,"image":"https://www.reasonwhy.es/media/cache/noticia_relacionada/media/library/amazon-rufus.jpg","path":"/actualidad/amazon-quiere-compras-mas-informadas-rufus-asistente-inteligencia-artificial"}Y es que, más allá de las dudas que pueda despertar el análisis de las conversaciones de los empleados, la realidad es que, a día de hoy, ninguna empresa puede ofrecer garantías acerca de la privacidad y seguridad de los modelos de inteligencia artificial. Es decir, en el caso de que los empleados fueran despedidos o recibieran un parte disciplinario podrían encontrar barreras a la hora de defenderse ante los análisis y conclusiones extraídos por una tecnología todavía inmadura y de la que se desconocen los datos involucrados.
Desde Aware aseguran que sus modelos de inteligencia artificial no toman decisiones ni sugieren medidas disciplinarias. A este respecto, recalcan que la herramienta facilita el análisis de datos para la identificación de riesgos potenciales o violación de políticas corporativas.