En el marco del Convenio suscripto con ADAPT, en abril de este año, presentamos ponencia con la Dra. Eleonara Peliza en el Congreso Internacional “What do workers want, today? An interdisciplinary reflection on representation, industrial relations and labour law”. El Congreso tuvo lugar en el Centro de Convenciones Giovanni XXIII, Bérgamo, Italia del 4 al 6 de diciembre.
La ponencia “Desafíos jurídicos ante la gobernanza de datos y la opacidad algorítmica en el empleo”, se presentó en el panel: “Gestión algorítmica y derechos laborales: desafíos jurídicos y protección en la era de la inteligencia artificial”.
La irrupción de los algoritmos en la gestión de recursos humanos no solo redefine las dinámicas laborales, sino que también plantea desafíos éticos y jurídicos fundamentales. En un entorno cada vez más dominado por lo que algunos denominan “algoritmocracia”, procesos como la contratación, la evaluación del desempeño y la gestión de equipos están profundamente influenciados por la inteligencia artificial y los datos. Esta transformación promete eficiencia y precisión, pero también expone las grietas de un sistema que carece de transparencia y pone en riesgo los derechos de los trabajadores.
La opacidad algorítmica, uno de los problemas más críticos de esta nueva realidad, se manifiesta en la incapacidad de explicar cómo funcionan y toman decisiones estas tecnologías. Los algoritmos de “caja negra” operan bajo principios que violan la transparencia, un pilar esencial para evaluar su legitimidad y ética. Aunque a menudo se asume que la inteligencia artificial actúa con objetividad, esta percepción ignora que todo algoritmo refleja las intenciones, prejuicios y limitaciones de quienes lo desarrollan. La programación, inevitablemente influida por las perspectivas humanas, puede perpetuar sesgos y desigualdades en los lugares de trabajo.
Un problema recurrente radica en que los algoritmos suelen entrenarse con datos históricos defectuosos o sesgados, lo que amplifica las distorsiones del sistema. Este fenómeno plantea retos legales y técnicos que dificultan la identificación y corrección de errores. Así, los trabajadores quedan expuestos a decisiones que pueden ser arbitrarias o discriminatorias, mientras las organizaciones luchan por equilibrar la eficacia tecnológica con las demandas éticas y legales.
La necesidad de explicabilidad se vuelve imperativa. Comprender cómo los algoritmos toman decisiones no solo es esencial para corregir sesgos, sino también para diseñar herramientas que promuevan la equidad y la justicia. Sin embargo, este objetivo requiere superar lo que podría considerarse un “taylorismo digital”, donde los datos se gestionan con la misma lógica instrumental aplicada a los productos y servicios, sin considerar las particularidades humanas.
La regulación es otro frente de batalla. Las leyes existentes, muchas de ellas concebidas en un contexto analógico, se muestran insuficientes para abordar las complejidades de la inteligencia artificial en el ámbito laboral. Es imprescindible actualizar las normativas de protección de datos y desarrollar marcos legales específicos que garanticen tanto la privacidad como la transparencia en la toma de decisiones. Además, las empresas deben adoptar políticas internas que aseguren el cumplimiento de las leyes antidiscriminatorias y prevengan impactos desiguales en el lugar de trabajo.
Desde una perspectiva interdisciplinaria, es necesario combinar aspectos tecnológicos, jurídicos, éticos y psicológicos para construir un entorno laboral digital justo. La gobernanza de datos debe priorizar la trazabilidad y la responsabilidad en las decisiones tomadas por algoritmos. Asimismo, la ética debe guiar el diseño de sistemas que no perpetúen exclusiones ni marginaciones, garantizando que las herramientas tecnológicas actúen como aliados del progreso social, y no como obstáculos.
En última instancia, el desafío radica en diseñar algoritmos explicables y auditables que preserven la humanidad en las relaciones laborales. Evitar que los trabajadores sean reducidos a un conjunto de datos procesados y gestionados de manera fría y predictiva es crucial para proteger su dignidad y sus derechos. Solo así será posible aprovechar las oportunidades de la inteligencia artificial sin sacrificar los principios fundamentales de justicia y equidad.
Dra. Paula Sardegna
Decana
Facultad Ciencias Jurídicas
Universidad Argentina John F. Kennedy