fbpx

#Doctrina Un Algoritmo ¿te puede despedir en Argentina?

Autor: Allona, Ana

Fecha: 20-09-2022

Colección: Doctrina

Cita: MJ-DOC-16808-AR||MJD16808

Voces: LABORAL – INTELIGENCIA ARTIFICIAL – DESPIDO

Sumario:
Doctrina:
Por Ana Allona (*)

El tema que nos ocupa hoy, relaciona la inteligencia artificial (IA) y las relaciones laborales, donde nos preguntamos si un algoritmo te puede despedir y hasta qué nivel de decisiones automatizadas puede utilizar la inteligencia artificial tratándose de decisiones que afectan derechos jurídicos en el marco de la gestión de personas, RRHH, relaciones laborales, etc.

Al incorporar IA, y automatizar algunas decisiones en la gestión de personas, las organizaciones pueden beneficiarse de un mejor uso y asignación de recursos, de un incremento en la productividad y de decisiones organizativas rápidas Todos los datos así, se pueden recuperar o recopilar de manera muy rápida sobre las personas que trabajan, qué es lo que hace, que es lo que no hace, cómo lo hace, se cumplen los objetivos, con que productividad trabajar etc. y por lo tanto muchas organizaciones llegan incluso a despedir o desvincular personas en base a esos resultados. Amazon es un claro ejemplo de que trabaja así. Te desvincula un Algoritmo.

¿Aún no estás suscripto a Microjuris? Ingresá aquí.

En Argentina, por ahora, nuestra legislación no indica expresamente si ese algoritmo y el conjunto de datos deben pasar antes por una decisión humana. No hay nada. Tampoco, hay nada escrito con respecto a los sesgos o discriminación algorítmica. Mucho menos referidos a los perfiles laborales digitales y ni que hablar sobre los sistemas de puntuación social tan de moda en materia de relaciones humanas y gestión de personas (sistemas de puntuación social prohibidos en Europa, y perfectamente adaptables a las relaciones de trabajo). El art. 17 LCT no los incluye. Ni siquiera menciona la discriminación por género, debiendo en este caso recurrir a leyes 23592 y 26485 .

Veamos entonces que ofrece la Unión Europea. El Reglamento del Parlamento Europeo y Consejo (1) que fuera aprobado el 14 de abril del 2016 y que rige desde el 25 de mayo del 2018, tiene un conjunto de artículos que se podrían tomar como base y que sintetizaremos en los siguientes párrafos. Son los artículos 4 y 22.El art. 4 del Reglamento General de Protección de Datos (RGPD) define a la elaboración de perfiles: como una forma de tratamiento automatizado de datos personales consistente en utilizar datos personales para evaluar determinados aspectos personales de una persona física, en particular para analizar o predecir aspectos relativos al rendimiento profesional, situación económica, salud, preferencias personales, intereses, fiabilidad, comportamiento, ubicación o movimientos de dicha persona física. El mismo reglamento indica y define a las a las decisiones automatizadas como el proceso de adopción de decisiones de forma automatizada sin intervención humana.

Por su parte, el art. 22 indica que todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar, éste artículo 22 establece una previsión general a estas prácticas, básicamente que las personas tienen derecho a no ser tratadas bajo una decisión totalmente automatizado incluida la elaboración de perfiles, cuando esas decisiones produzcan efectos jurídicos Por tanto en base a este precepto si se admiten aquellas decisiones íntegramente automatizadas pero sin efectos jurídicos Y también aquellas decisiones que podríamos llamar semiautomatizadas. Es decir que tienen intervención humana. También indica que el apartado 1 del Art 22 no se aplica cuando es necesaria para la celebración o la ejecución de un contrato entre el interesado y un responsable del tratamiento, cuando esté permitido por el derecho de la Unión o del Estado miembro o cuando exista consentimiento explícito de la persona.

Por tanto, surgen dos preguntas que deberíamos hacernos:

La primera es ¿qué decisiones tienen efectos jurídicos o similares? Y la respuesta es, cuando se afecta la situación legal de la persona o sus derechos: ejemplos, asignación de tareas, promociones, traslados, aumento de compensaciones y despido. Sintéticamente cada vez que se afectan sus condiciones laborales y sus condiciones económicas.

La segunda pregunta es, ¿qué grado de intervención humana es suficiente?En las directrices adoptadas, entienden que sea significativa y que la persona tenga autoridad y competencia en la toma de esa decisión. Se entiende que no es posible fabricar una intervención humana. Una persona que se dedica automáticamente a adoptar una decisión adoptada por el algoritmo no alcanza.

Por otro lado, que derechos tienen las personas trabajadoras: a) tienen el derecho a la información de cuáles decisiones son automatizadas y las consecuencias y b) tienen derecho a revisión, derecho a obtener intervención humana y a expresar su punto de vista y a impugnar tal decisión.

El propio art. 22 dice que las empresas están obligadas a garantizar mediante medidas los dos siguientes derechos: a) el derecho a la información y b) el derecho a la revisión.

Estos son los aspectos más relevantes, y aunque mi listado incluye más de veinte ítems, sería muy importante incorporar normativa expresa en nuestra legislación y Convenios Colectivos de Trabajo para que se sirvan de principios y guía a las Organizaciones (públicas y privadas), incluido el Poder Judicial.

———

(1) https://www.boe.es/doue/2016/119/L00001-00088.pdf

(*) Abogada UBA. Especialista en RRLL. Postgrado en Conducción Estratégica de RRHH (IDEA). Magíster en Derecho Empresarial (UADE) Magíster en Derecho Laboral y RRLL Internacionales (UNTREF). Postgrado en IA, UBA. Doctoranda en RRLL & IA, Universidad Kennedy. Docente.

A %d blogueros les gusta esto: