Si se utiliza la IA para mejorar la productividad, no debe tomarse decisiones sobre promociones, bonos o despidos sólo con algoritmos. Se necesita la intervención humana que evite sesgos y discriminaciones.
La Inteligencia Artificial (IA) impacta en el mundo laboral y presenta desafíos significativos en la regulación y las políticas internas de las empresas. Según la Organización Internacional del Trabajo (OIT), el impacto mayor no está en la pérdida apocalíptica de empleos sino en la transformación de las funciones y procesos laborales. La IA modificará radicalmente las relaciones laborales.
Un ejemplo: Un vendedor ingresa a la empresa con su huella digital. Tiene una reunión híbrida desde su celular y, a través de la IA, comparte las acciones comerciales del día. Mientras visita clientes, ingresa a la plataforma con las ventas on time y en línea la empresa de logística recibe las reposiciones del día, mientras que las fotos que tomó en su recorrido registran las ventas de la competencia. Al final del día, no aparece en el top ten de vendedores y la IA le sugiere las acciones comerciales para mejorar y le envía una amonestación por incumplir protocolos de venta. El vendedor, por la noche, trabaja acciones innovadoras de ventas. Las implementa al día siguiente con buen resultado, pero sin seguir los comandos de IA. Al ser descubierto, es sancionado porque en la empresa solo se puede aplicar la IA. El vendedor denuncia a la empresa ante la Sunafil porque nunca le autorizó a utilizar su huella digital ni a realizar una vigilancia de su día laboral y cuestiona el reemplazo de su jefe por la IA.
Las normas actuales no tienen una respuesta. Con la IA, las empresas optimizan sus procesos, reducen plazos y mermas, mejoran los productos, reducen costos y baten récords de productividad. Pero la IA plantea dilemas éticos y retos a las organizaciones. Su aprovechamiento también genera la responsabilidad de buscar una regulación que encuentre un equilibrio entre la necesidad de la IA y los derechos fundamentales de los trabajadores. Un difícil y delicado equilibrio.
La regulación puede darse a través del propio reglamento interno o de las políticas por áreas o procesos. Lo ideal es que pueda ser cocreada. Quizás a partir de una propuesta de la empresa, la política sea socializada, se promueva la creatividad humana y, finalmente, se logre lineamientos con legitimidad.
Las normas internas deberían contener las competencias y habilidades que se requieren con la IA, transparentar los procesos que demandan reconversión, las funciones que deben rediseñarse, puestos que necesitan reeducación permanente, posiciones que demandan habilidades críticas y competencias digitales.
Los lineamientos deben ser difundidos y actualizados constantemente tanto como la evolución de la propia IA. La información compartida con detalle y lenguaje simple, foros de explicación, canales de consultas y marchas blancas, son indispensables. La transparencia en la información genera mayor confianza, compromiso y aceptación de las decisiones que se toman a partir de la IA.
Las políticas deberían estar enmarcadas en la cultura de la empresa, representando una guía ética de actuación, delimitando los casos donde los trabajadores deben reportar su uso, resolver zonas grises, así como tener un proceso de solución de conflictos. Por ejemplo, ¿es posible que una empresa impida, obligue o establezca límites a la IA? ¿Un trabajador que presenta un trabajo original, sin declarar que utilizó ChatGPT, puede ser sancionado si existía una regulación interna que la prohibía?
La protección de datos de los trabajadores (huella digital, historia médica, rutas de trabajo, rendimiento, etc.) también deben ser considerada y transparentada no solo por temas legales sino porque es lo correcto. Se debe establecer protocolos estrictos sobre su uso, limitados a la necesidad laboral.
En el caso que se utilice la IA para mejorar la productividad, no debe tomarse decisiones automatizadas para promociones, bonos, renovaciones de contratos o despidos, basadas solo en algoritmos. Es necesario la intervención “humana” para evitar sesgos y discriminaciones.
Las empresas deben considerar controles “de calidad humana” antes de aplicar acciones algorítmicas, así como auditorías periódicas y una validación adicional en acciones de impacto como un despido por bajo rendimiento. De hecho, hay casos como Amazon, donde hubo reclamos porque se habrían tomado decisiones arbitrarias basadas en la IA.
Las interacciones humanas con la IA también son críticas. Los casos de sustitución, revisión y participación humana en la mejora de la IA son complejos, especialmente para evitar que, fruto de la automatización y repetición de procesos, el talento se aleje y los índices de satisfacción laboral entren en picada.
Tenemos nuevos retos para la retención del talento, la rotación y la búsqueda de la “mejora continua” en medio de la IA. Ese es el desafío de las mejores organizaciones: encontrar las acciones adecuadas para cada necesidad, tiempo y para cada trabajador porque, como decía Saint-Exupéry, “lo esencial es invisible a los ojos”.
«El aprovechamiento de la IA en las empresas genera la responsabilidad de buscar una regulación interna que equilibre la necesidad de usarlo con los derechos fundamentales de los trabajadores.»
6 minutos de lectura
Comparte
Avenida Camino Real Nro 1053 Piso 12, San Isidro, Lima – Perú
+511 706 4200