#Doctrina La Regulación del Uso de la Inteligencia Artificial en los Convenios Colectivos de Trabajo

Aún no estás suscripto a Microjuris? Ingresá aquí.


Autor: Romero, Fernando E.

Fecha: 03-11-2025

Colección: Doctrina

Cita: MJ-DOC-18535-AR||MJD18535

Voces: DERECHO DEL TRABAJO – DERECHO LABORAL – TECNOLOGÍA – TICS – DERECHO A TRABAJAR – PROCESO LABORAL – PRINCIPIOS DEL DERECHO LABORAL – INTERNET – INTELIGENCIA ARTIFICIAL – CONVENIOS COLECTIVOS DE TRABAJO

Sumario:
I. Introducción. II. Desarrollo. III. Conclusiones.

Doctrina:
Por Fernando E. Romero (*)

I. INTRODUCCIÓN

¿Me pueden despedir por usar IA en el trabajo? ¿Me pueden obligar a usarla? ¿Tengo la obligación de decirle a mi jefe que uso IA? ¿Qué es un «trabajador aumentado»?

La irrupción de la inteligencia artificial (IA) en el ámbito laboral representa uno de los fenómenos más significativos de la llamada Cuarta Revolución Industrial. Lejos de ser una promesa de futuro, la IA se encuentra hoy plenamente incorporada en la vida cotidiana de empresas y trabajadores: desde sistemas de selección de personal, algoritmos de gestión del desempeño, hasta asistentes de redacción y programas de análisis predictivo de datos. Frente a esta realidad, los convenios colectivos de trabajo adquieren un rol central en la tarea de establecer límites, condiciones y derechos frente al uso de estas tecnologías.

La historia del derecho laboral demuestra que, cada vez que emergió una innovación tecnológica con capacidad de alterar las formas de producción y organización del trabajo, los sindicatos y la negociación colectiva fueron los principales ámbitos donde se establecieron las primeras reglas protectorias. La IA no debería ser la excepción. La ausencia de regulación expresa abre la puerta a conflictos serios: sanciones arbitrarias por el uso indebido, pérdida de la autoría intelectual, vulneración de la confidencialidad, y hasta la estandarización del pensamiento en entornos donde la creatividad y la diversidad deberían primar.

Este trabajo propone identificar los contenidos mínimos que deberían formar parte de los convenios colectivos en relación con la IA. Dichos contenidos se agrupan en torno a siete ejes: definición de IA, usos permitidos y sancionados, derecho a no usar IA, identificación de herramientas, propiedad intelectual, confidencialidad y riesgos de homogenización del pensamiento.

II. DESARROLLO

a. La necesidad de definir la inteligencia artificial en el convenio colectivo

El primer paso consiste en acordar una definición operativa de inteligencia artificial.La literatura académica ofrece múltiples aproximaciones, que van desde la definición técnica de sistemas capaces de realizar tareas que normalmente requieren inteligencia humana (razonamiento, aprendizaje, procesamiento de lenguaje), hasta definiciones normativas como la propuesta por la Ley de IA de la UE (2024): «sistema de IA»: un sistema basado en máquinas que está diseñado para funcionar con diversos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales; (Art. 3).

Trasladado al ámbito laboral, la definición en el convenio colectivo no debe ser excesivamente técnica, pero sí lo suficientemente clara para distinguir entre simples programas informáticos y sistemas que efectivamente utilizan modelos de IA. Una cláusula podría, por ejemplo, establecer que: «Se entenderá por Inteligencia Artificial toda herramienta tecnológica capaz de procesar datos y generar resultados autónomos o semiautónomos basados en algoritmos de aprendizaje automático, procesamiento de lenguaje natural u otras técnicas equivalentes, que impliquen algún grado de decisión o creación de contenido no previsto de manera estricta por el programador».

b. Determinación de los usos permitidos y prohibidos

Una vez delimitado qué es IA, el convenio debe aclarar si está permitido el uso de IA en el trabajo, y en su caso, bajo qué condiciones. La práctica demuestra que muchas empresas toleran o incluso promueven el uso de herramientas como ChatGPT, Copilot o MidJourney, pero sin reglas escritas. Esto genera inseguridad: un trabajador puede ser felicitado un día por la rapidez que le otorga la IA, y sancionado al día siguiente por «falta de autoría personal».

La experiencia del derecho comparado sugiere que no basta con una cláusula genérica de autorización o prohibición. Se requiere un detalle mínimo que distinga entre:

– Usos aceptados:apoyo en la redacción de documentos, generación de borradores, traducciones, análisis preliminar de datos, etc.

– Usos prohibidos: delegación total de la tarea sin revisión humana, incorporación de datos confidenciales de clientes en plataformas externas, utilización en exámenes o evaluaciones sin autorización.

El convenio debe además prever cuándo la utilización de IA dará lugar a sanciones disciplinarias. En este punto, rigen los principios generales del derecho laboral: legalidad, tipicidad, proporcionalidad y razonabilidad. No se puede sancionar al trabajador por un uso de IA que no estaba previamente identificado como prohibido.

c. El derecho a no usar IA

Un aspecto central de la regulación es el reconocimiento del derecho del trabajador a no usar IA. En un contexto de fascinación tecnológica, puede parecer paradójico plantear la no utilización como derecho. Sin embargo, desde la perspectiva laboral cobra pleno sentido.

La Ley de Contrato de Trabajo (LCT) en Argentina establece que el empleador debe brindar los medios adecuados para la prestación del servicio, pero no puede imponer condiciones que afecten la dignidad o la salud del trabajador. Obligar a utilizar IA, sin capacitación previa ni consentimiento, puede afectar la autonomía profesional, generar estrés tecnológico («tecnoestrés») y vulnerar el derecho a desarrollar la tarea con criterio propio.

El convenio colectivo puede, por lo tanto, reconocer expresamente que «ningún trabajador estará obligado a utilizar sistemas de inteligencia artificial para el cumplimiento de sus funciones, pudiendo optar por métodos manuales o tradicionales, sin que ello implique sanción, discriminación o limitación en su desarrollo profesional».

De este modo, se equilibra la innovación tecnológica con la libertad individual. La opción de no usar IA garantiza que la persona trabajadora no quede subordinada a herramientas que aún generan incertidumbre en cuanto a errores, sesgos o responsabilidades.

d. Ocupación efectiva

El art.78 de la Ley de Contrato de Trabajo (LCT) impone al empleador la obligación de dar tareas efectivas, adecuadas a la calificación, categoría y capacidad física del trabajador.

No se trata solo de pagar el salario, sino de brindar un espacio real de trabajo en el que el trabajador pueda desplegar su actividad productiva y creativa (art. 4 LCT).

La omisión de esta obligación vacía de contenido el contrato de trabajo, pues la contraprestación no es solo económica, sino también la posibilidad de participar de la organización laboral.

La introducción obligatoria de IA puede plantear tensiones cuando sustituye total o parcialmente las funciones humanas.

Si el trabajador queda reducido a un rol meramente pasivo (ej.: supervisar un algoritmo sin margen de intervención, o quedar desplazado a «apretar botones» sin contenido profesional), podría configurarse una violación al deber de ocupación efectiva.

El empleador tiene derecho a organizar el trabajo y adoptar tecnologías (art. 64 LCT: facultad de dirección), pero ello debe armonizarse con el derecho a la dignidad y ocupación del trabajador.

El uso de IA no puede suponer una desnaturalización del contrato de trabajo ni un vaciamiento de la ocupación efectiva. El trabajador conserva el derecho a realizar tareas que se correspondan con su categoría y que le den sentido a su participación en la organización.

Si la patronal usa la IA como excusa para retacear tareas, marginar o vaciar de contenido el puesto, ello puede constituir injuria laboral (art. 242 LCT), habilitando al trabajador al despido indirecto.

La jurisprudencia ya reconoció que la falta de tareas efectivas constituye una injuria grave (caso Lencina Francisco c/ Frigorífico Meatex S.A., SCBA 27/12/91).

La incorporación de IA no debe derivar en despidos encubiertos mediante la supresión de funciones sin reasignación efectiva de tareas.

El empleador está obligado a reentrenar y reconvertir a los trabajadores afectados, respetando su ocupación efectiva, lo que se conecta con los principios de continuidad y conservación del contrato (arts.10 y 14 LCT).

Desde la óptica constitucional, el derecho al trabajo digno (art. 14 bis CN) se vería vulnerado si la IA elimina la ocupación sin dar alternativa.

Obligar a usar IA no es per se una violación de la ocupación efectiva; el riesgo surge cuando la tecnología desplaza o vacía de contenido las tareas humanas, transformando al trabajador en un mero espectador de la máquina o dejándolo sin actividad. En tal caso, podría configurarse injuria grave y habilitar reclamos por incumplimiento del art. 78 LCT. El límite está en compatibilizar la innovación tecnológica con la obligación de brindar tareas útiles, dignas y acordes a la categoría del trabajador.

e. Identificación y control de herramientas de IA

Un problema frecuente en la práctica es la dificultad de determinar si un texto, una imagen o un código fue generado con IA. Esto ha dado lugar a la proliferación de herramientas que prometen detectar el uso de IA. Sin embargo, muchas de ellas carecen de validez científica y presentan altos márgenes de error.

Por ello, los convenios colectivos deben establecer que, en caso de utilizar herramientas de detección, estas deberán ser homologadas o reconocidas oficialmente por organismos competentes. De lo contrario, se corre el riesgo de sancionar injustamente a trabajadores por supuestos usos de IA que nunca existieron.

Además, el convenio debe regular el proceso de identificación. Por ejemplo, antes de aplicar una sanción por uso indebido de IA, la empresa debería notificar al trabajador, permitirle ejercer su defensa y acreditar con pruebas confiables que efectivamente hubo intervención de un sistema de IA.

f. Propiedad intelectual y derecho de autor

Uno de los temas más delicados es el de la autoría en obras creadas con apoyo de IA. En A rgentina, la Ley 11.723 de Propiedad Intelectual reconoce derechos de autor exclusivamente a personas humanas. La IA, en sí misma, no puede ser autora.Sin embargo, esto no resuelve los conflictos en el ámbito laboral.

¿Qué ocurre cuando un trabajador utiliza IA para producir un informe, un diseño o un software? ¿Se lo considera autor, coautor, o simple usuario de una herramienta que «diluye» su aporte?

Desde la perspectiva protectoria del derecho laboral, el convenio debe establecer que el uso de IA no afecta el reconocimiento de la autoría humana. Es decir, el trabajador sigue siendo autor de la obra, aun cuando haya utilizado IA como herramienta de apoyo. De lo contrario, se corre el riesgo de invisibilizar el aporte creativo del trabajador y de transferir implícitamente la autoría a la empresa o al proveedor de IA.

Este punto es clave no solo para proteger la creatividad individual, sino también para garantizar que el trabajador conserve derechos morales sobre la obra (paternidad, integridad) y eventuales derechos patrimoniales cuando la legislación lo permita.

g. Confidencialidad y resguardo de datos

El uso de IA en entornos laborales plantea serias preocupaciones sobre la confidencialidad. Muchas plataformas de IA requieren subir datos a servidores externos, lo que puede implicar la exposición de información sensible de la empresa, clientes o incluso de los propios trabajadores.

Los convenios colectivos deberían incluir cláusulas de protección, estableciendo que:

1. El uso de IA solo podrá hacerse con herramientas previamente aprobadas por la empresa y el sindicato.

2. Queda prohibido ingresar datos confidenciales en sistemas de IA que no garanticen estándares de seguridad equivalentes a los exigidos por la Ley 25.326 de Protección de Datos Personales en Argentina.

3. El trabajador no podrá ser responsabilizado individualmente por filtraciones derivadas del uso de plataformas que la propia empresa habilitó sin garantías suficientes.

De esta manera, se protege el secreto industrial y se evita que la carga de la confidencialidad recaiga exclusivamente sobre el trabajador.

h. Riesgo de estandarización y homogenización del pensamiento

Un aspecto menos explorado, pero igualmente relevante, es el peligro de estandarización del pensamiento. Las IA generativas tienden a producir respuestas predecibles, basadas en patrones estadísticos de lenguaje.Cuando se utiliza un perfil corporativo para alimentar la IA, el resultado puede ser una creciente homogenización del contenido.

Esto afecta directamente a ámbitos laborales donde la creatividad, la innovación y la diversidad cultural son fundamentales: publicidad, periodismo, diseño, investigación. Si todos los trabajadores de una empresa utilizan el mismo perfil de IA, el pensamiento crítico se diluye y se produce un sesgo organizacional invisible.

Los convenios colectivos deben advertir sobre este riesgo y establecer que el uso de IA no debe reemplazar la originalidad ni el criterio profesional del trabajador. Incluso podrían prever instancias de capacitación orientadas a promover un uso crítico de la IA, donde el trabajador aprenda a dialogar con la herramienta sin perder autonomía intelectual.

i. Caracterización biométrica en el ámbito laboral

La categorización biométrica debe entenderse como el proceso de asignar a una persona física a una categoría determinada en función de sus datos biométricos. Esto incluye, entre otros, parámetros vinculados al sexo, edad, color de cabello, color de ojos, tatuajes, rasgos de comportamiento o personalidad, lengua, religión, pertenencia a una minoría nacional, orientación sexual o política. Se trata de un uso de la información biométrica con el fin de clasificar o segmentar a las personas en grupos o perfiles específicos.

La Unión Europea, a través del Reglamento de Inteligencia Artificial (AI Act) aprobado en 2024, establece un marco jurídico específico para el uso de la categorización biométrica. El Reglamento prohíbe de manera expresa los sistemas de categorización biométrica que identifiquen o clasifiquen personas según categorías sensibles (art.5 AI Act). Esto incluye cualquier intento de inferir características ligadas a creencias religiosas, ideología política, salud, vida sexual o identidad de género.

Quedan excluidos de esta noción aquellos sistemas cuya función biométrica sea puramente auxiliar e inseparable de otro servicio principal, por ejemplo, filtros de compra en línea que permiten previsualizar un producto sobre la propia imagen del consumidor, o filtros de redes sociales que modifican imágenes o videos con fines recreativos, en la medida en que tales herramientas no puedan operar autónomamente ni tengan como finalidad principal categorizar a la persona.

En el ámbito laboral, la categorización biométrica plantea un riesgo directo a derechos fundamentales de las personas trabajadoras:

Derecho a la igualdad y no discriminación: el uso de categorías vinculadas a religión, orientación sexual, pertenencia a minorías o rasgos físicos puede derivar en tratos diferenciales injustificados o en prácticas discriminatorias en la contratación, asignación de tareas, ascensos o despidos.

Derecho a la intimidad y a la autodeterminación informativa: la utilización de datos biométricos sensibles para clasificar trabajadores invade la esfera privada y puede vulnerar el principio de minimización y finalidad en el tratamiento de datos personales.

Derecho a la dignidad en el trabajo:el etiquetado de trabajadores en función de supuestas características de personalidad o comportamiento puede derivar en estigmatización, vigilancia excesiva y pérdida de autonomía.

Por ello, corresponde establecer como conclusión que la categorización biométrica en el ámbito laboral debe prohibirse cuando se base en datos sensibles y pueda derivar en discriminación, exclusión o afectación de derechos fundamentales, permitiéndose únicamente usos técnicos auxiliares, proporcionales y estrictamente necesarios para la prestación de un servicio (por ejemplo, control de acceso por huella digital o iris, siempre que sea proporcional y no almacene categorías indebidas).

De este modo, se asegura que las tecnologías biométricas se utilicen con un criterio de protección de los trabajadores y respeto a los principios constitucionales de igualdad, dignidad, intimidad y no discriminación.

j. Caracterización biométrica emotiva:

La categorización biométrica emotiva se refiere al uso de tecnologías de inteligencia artificial que, a partir de expresiones faciales, tono de voz, microgestos, postura corporal o patrones fisiológicos, intentan inferir estados emocionales o rasgos de personalidad de las personas. Si bien la Unión Europea ya ha marcado en el AI Act que estos sistemas plantean un alto riesgo de manipulación y discriminación, su aplicación en el mundo laboral podría resultar especialmente peligrosa. Imaginemos un futuro cercano en el que los empleadores, valiéndose de sensores en escritorios, cámaras de videovigilancia o softwares de entrevistas, evalúen al trabajador no por sus méritos objetivos, sino por supuestos «indicadores emocionales» como entusiasmo, estrés, predisposición al liderazgo o incluso «nivel de lealtad corporativa». Este escenario sería aterrador, pues convertiría al trabajador en un objeto de análisis algorítmico constante, anulando su derecho a la intimidad, exponiéndolo a estigmatización permanente y abriendo la puerta a despidos encubiertos bajo diagnósticos emocionales pseudocientíficos.En términos laborales, equivaldría a reinstaurar una suerte de control totalitario digital, donde la espontaneidad y la libertad interior del trabajador quedarían subordinadas a parámetros biométricos diseñados por la empresa.

Cabe resaltar que dichos controles no podrían afectar la dignidad del trabajador, además de que deben ser notificados y no ser discriminatorios. Ello toda vez que, si la caracterización biométrica emotiva que categorice al trabajador según sus emociones, personalidad o rasgos físicos resulta, resulta de por sí, contrario al art. 70 LCT, porque afecta directamente la dignidad de la persona, al someterla a juicios automatizados sobre su carácter o estado emocional. Además, cualquier implementación de estos sistemas sin notificación previa, clara y comprensible violaría el art. 71 LCT, que exige conocimiento expreso del trabajador. Finalmente, la verificación estatal (art. 72 LCT) se vuelve crucial frente a tecnologías invasivas que, en la práctica, pueden derivar en discriminación encubierta (p. ej., selección de personal en base a expresiones faciales o supuestas actitudes emocionales).

III. CONCLUSIONES

La incorporación de la inteligencia artificial en el mundo del trabajo plantea desafíos complejos que no pueden ser resueltos únicamente por normas estatales o por decisiones unilaterales de las empresas. Los convenios colectivos de trabajo constituyen el espacio idóneo para equilibrar la innovación tecnológica con la protección de los derechos laborales.

Los contenidos mínimos que deberían incluirse abarcan:

1. Una definición clara de qué se entiende por IA.

2. La delimitación de usos permitidos y prohibidos, con criterios de sanción proporcionales.

3. El reconocimiento del derecho del trabajador a no usar IA.

4. La utilización de herramientas homologadas para la detección de IA.

5. La garantía de autoría humana en obras realizadas con apoyo de IA.

6. Cláusulas de confidencialidad que resguarden datos sensibles.

7. La prevención de la homogenización del pensamiento y la pérdida de creatividad.

8.Regulación de los controles biométricos.

En definitiva, regular la IA en los convenios colectivos no es un freno al progreso, sino una condición necesaria para que el progreso tecnológico sea compatible con la dignidad humana en el trabajo. Tal como lo ha demostrado la historia del movimiento obrero, el desafío consiste en domesticar la técnica al servicio de la persona, y no la persona al servici o de la técnica.

La inteligencia artificial ya no es una promesa futura, sino una realidad que interpela al derecho laboral en todas sus dimensiones. Si los convenios colectivos no fijan ahora los límites éticos y jurídicos, corremos el riesgo de que los algoritmos sustituyan al criterio humano en las decisiones más sensibles del trabajo. La verdadera pregunta no es hasta dónde puede llegar la tecnología, sino hasta dónde estamos dispuestos a permitir que llegue sin perder de vista que, en el centro de toda organización productiva, debe seguir estando la persona.

———–

(*) Abogado.

Suscribete

Descubre más desde AL DÍA | ARGENTINA

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo