Icono del sitio AL DÍA | ARGENTINA

#Doctrina El alcance de la seguridad jurídica en las decisiones adoptadas por Inteligencia Artificial

Autor: Paz, Aníbal

Fecha: 30-09-2025

Colección: Doctrina

Cita: MJ-DOC-18500-AR||MJD18500

Voces: INTELIGENCIA ARTIFICIAL – TECNOLOGIA – DEBIDO PROCESO – GARANTIAS CONSTITUCIONALES – JUECES – PODER JUDICIAL

Sumario:
I. Introducción. II. Definiciones preliminares. III. Seguridad Jurídica en decisiones adoptadas a través de la IA. IV. Las decisiones automatizadas. V. Cuestiones a resolver. VI. Conclusiones. VII. Bibliografía.

Doctrina:
Por Aníbal Paz (*)

Abstract (Español)

El presente estudio aborda la dimensión ética y filosófica que debe guiar la reglamentación de la Inteligencia Artificial (IA), con un enfoque particular en su impacto sobre la seguridad jurídica. Se analiza la seguridad jurídica a través de tres concepciones principales, esenciales para un marco jurídico claro. El primer enfoque es el predictibilista, que presupone la previsibilidad de las decisiones estatales y judiciales. El segundo es el controlabilista, centrado en la necesidad de asegurar que las decisiones adoptadas sean justificables, transparentes y susceptibles de supervisión, reduciendo así la discrecionalidad interpretativa y aplicativa. Un derecho cierto requiere la posibilidad de identificar las consecuencias de la aplicación de las normas. Finalmente, el enfoque de satisfacción de expectativas se orienta a proteger la confianza legítima de los individuos en las instituciones.

El desarrollo actual de las herramientas de IA plantea un gran desafío a los principios jurídicos en juego, especialmente debido al vicio de las «cajas negras» (black boxes), porque las decisiones resultan opacas e inexplicables, lo que afecta la transparencia y la justificación. Aunque existen esfuerzos en modelos avanzados para exhibir los pasos de una decisión, la opacidad sigue siendo un reto. Se advierte, además, que la adopción generalizada de la IA podría conllevar el peligro de un empobrecimiento conceptual del derecho, al desincentivar la reflexión sobre el valor justicia en casos concretos y, potencialmente, desdibujar la independencia judicial. Por lo tanto, se justifica la necesidad de construir un marco jurídico claro que aborde estos desafíos.

Abstract (English)

This essay addresses the ethical and philosophical dimension that must guide the regulation of Artificial Intelligence (AI), focusing specifically on its impact on legal certainty (seguridad jurídica). Legal certainty is analyzed through three primary conceptions, considered essential for establishing a clear legal framework. The first approach is predictability, which assumes the foreseeability of judicial and state decisions.The second is the controlability approach, centered on ensuring that decisions adopted by law application bodies are justifiable, transparent, and susceptible to supervision, thereby reducing interpretive and applicative discretion. Legal certainty operates as a factor that reduces discretion and requires the identification of consequences. The third approach, the satisfaction of expectations, seeks to protect the legitimate trust of individuals in institutions.

The current development of AI tools poses a significant challenge to these principles, particularly due to the «black box» issue, where decisions are opaque and inexplicable, undermining essential transparency and justifiability. Efforts are noted to develop advanced models capable of revealing the steps taken to reach a decision, aiming to overcome this lack of applicability. Furthermore, the extensive adoption of AI risks the conceptual impoverishment of legal principles, potentially discouraging reflection on the value of justice in specific cases and blurring judicial independence. This emphasizes the crucial need for doctrinal collaboration and an interdisciplinary approach to establish a clear and flexible legal framework that ensures certainty over rights currently in a doubtful or litigious state.

I. INTRODUCCIÓN

La irrupción masiva y al alcance de todos de la Inteligencia Artificial (IA) en el mundo contemporáneo ha marcado un punto de inflexión comparable a las grandes revoluciones industriales, reconfigurando los paradigmas de producción, comunicación y, de manera fundamental, las relaciones humanas y jurídicas. Si bien las herramientas algorítmicas prometen avances notorios en eficiencia y productividad, su despliegue masivo no está exento de colisiones con pilares esenciales del ordenamiento jurídico, en particular la protección de los derechos humanos fundamentales. La colisión mencionada se advierte con claridad apenas se repara en el hecho que la digitalización avanza más rápido que la capacidad regulatoria del Estado, generando sinfín de conflictos jurídicos que desafían los principios tradicionales del Derecho.Se desprende de ello que los conflictos normativos y, en particular, los errores en su resolución, constituyen focos de inseguridad jurídica.

En este contexto el presente trabajo se propone analizar, desde una perspectiva exploratoria y crítica, la compleja interacción entre la predictibilidad algorítmica y el concepto de seguridad jurídica. Siendo que los algoritmos de IA permiten predecir comportamientos, resultados o riesgos, ello debe ser contrastado con las expectativas que los ciudadanos tienen sobre un sistema legal justo y predecible, lo que nos obliga a indagar en la dimensión ética y filosófica que debe guiar la reglamentación de la IA, especialmente en su impacto sobre la seguridad jurídica.

En concreto, se abordarán aquí tres enfoques de la seguridad jurídica: el enfoque predictibilista, que asume la previsibilidad de las decisiones judiciales y estatales; el enfoque controlabilista, que se centra en la posibilidad de controlar y supervisar la aplicación de las normas; y el enfoque de satisfacción de expectativas, que protege la confianza legítima de los individuos en las instituciones. Se analizará entonces la manera en que la adopción de sistemas de IA, con su inherente opacidad y vicios de sesgos, afecta cada uno de estos enfoques y plantea nuevos interrogantes sobre la garantía de un acceso a la justicia equitativo y transparente.

El análisis propuesto resulta relevante en la medida que nos permite anticipar y morigerar los riesgos de una deshumanización del derecho y asegurar que la tecnología sirva como una herramienta para fortalecer la justicia, en lugar de erosionarla. En efecto, cuando se repara acerca de la la posibilidad cercana del juez-robot que en base a predicciones algorítmicas resuelva casos reales, se hacen evidentes los peligros jurídicos, aun cuando sus decisiones versen sobre determinadas causas – que podrían ser de menor cuantía, o en procesos estandarizados como ejecuciones, declaratorias de herederos- y aun cuando se incluyan revisiones humanas ulteriores en todos los procesos de resoluciones automatizadas.Así, el debate sobre el futuro del Derecho, y la profesión jurídica en particular, está inevitablemente ligado a la capacidad de regular y humanizar la tecnología. Este paper busca ser una contribución a ese debate, sentando las bases para futuras investigaciones en un área de creciente y vital importancia.

II. DEFINICIONES PRELIMINARES

La Seguridad Jurídica, de aquí en más SJ, es un concepto fundamental en el derecho, aunque notoriamente complejo y controvertido.

En una primera aproximación podemos entender por seguridad jurídica la capacidad que nos proporciona el derecho de prever, hasta cierto punto, la conducta humana y las consecuencias de dicha conducta (Lifante Vidal, 203).

Puede así entenderse la SJ tanto como un hecho o como un valor, lo que abre un panorama interesante y demasiado amplio de teorías al respecto, que por cuestiones de espacio no se abordarán en este escrito. Siguiendo a Pino (2023), se puede decir que el principio de SJ es un ideal en sí mismo realizable y resulta de un valor que tiene su mérito en ser perseguido, aún cuando las normas positivas sean de dudosa certeza. Partiendo de esas nociones elementales, y antes de avanzar con lo propuesto, resulta necesario caracterizar brevemente los enfoques predictibilista, controlabilista y de satisfacción de expectativas representan distintas formas de entender y valorar este ideal de SJ.

En primer lugar, la Concepción Predictibilista identifica la SJ con la previsibilidad. Se entiende como la capacidad que proporciona el derecho para conocer o conjeturar de antemano la conducta humana y las consecuencias jurídicas de determinados actos o hechos. Constituye así la capacidad de anticipar tanto las conductas reguladas por normas (ej., conducir por la derecha, no causar daños, no matar) como las decisiones de los órganos jurídicos (ej., la imposición de una multa, una indemnización, una sanción). Un derecho es más previsible cuantas más cosas, o con mayor precisión, permita prever.Pino (2023) remarca que la SJ no es una mera previsibilidad fáctica ni se trata de ser un oráculo acerca de lo que un juez decidirá basándose en factores externos como podrían ser la corrupción y los prejuicios. En cambio, la previsibilidad relevante para la SJ debe basarse en criterios normativos y universalizables, y en la corrección de la inferencia que asocia consecuencias jurídicas a actos o hechos. Así, se busca la previsibilidad de lo que debería derivar racionalmente de premisas normativas; de esta manera un ciudadano puede conocer y anticipar la reacción del derecho a sus acciones, facilitando la formulación de planes de acción autónomos y racionales, lo que beneficia tanto a quien busca evitar sanciones como quien desea cumplir la ley.

De esa manera, la SJ desde esta concepción se ve favorecida con la claridad en la formulación de las normas, la preferencia por la regulación mediante reglas, la uniformidad de las orientaciones jurisprudenciales, la estabilidad de las normas en el tiempo y la accesibilidad a la información jurídica. Por el contrario, la previsibilidad puede ser afectada o reducida por la ambigüedad, por la vaguedad terminológica, y por las contradicciones y lagunas sistémicas de un ordenamiento jurídico. Debe considerarse además que una búsqueda denodada y extrema de previsibilidad, desde un estricto punto de vista formal, puede ser injustificado si ignora otros valores o la incoherencia con el sistema jurídico más amplio, de lo que se sigue que la previsibilidad por sí misma no garantiza la concreción de otro valor esencial: la justicia.

En segundo término, cuando se habla de l a mirada Controlabilista de la SJ se trata de la controlabilidad de las decisiones de los órganos de aplicación del derecho. Es decir, se hace foco en asegurar (controlar) que las decisiones judiciales y administrativas sean justificables y transparentes por la vía de la reducción de la discrecionalidad.Un derecho cierto o seguro se constituye en un factor que reduce los márgenes grises de la discrecionalidad interpretativa y aplicativa. En este sentido, la SJ requiere la posibilidad de identificar las consecuencias jurídicas de manera intersubjetivamente compartida, basándose en la corrección de la inferencia que vincula los hechos con las normas. Esta concepción se encuentra, por cierto, íntimamente ligada a la separación de poderes y la rendición de cuentas de los órganos de aplicación. De esta manera, el control de las decisiones judiciales o de la actuación de los órganos ejecutivos exige, para asegurar la SJ, la existencia de criterios compartidos para la corrección de las decisiones, incluyendo la identificación de fuentes, su interpretación y la presencia de una autoridad interpretativa.

En otras palabras, en esta forma de entender la SJ, que concierne principalmente a los órganos de aplicación, se necesita un marco legal claro que sirva de guía de actuación, en la medida en que para aquellos el derecho es cierto sólo si ofrece una solución unívoca al caso, reduciendo las variables y márgenes de elección en la identificación de la solución jurídica.

Por último, el enfoque de SJ que la entiende como la Satisfacción de Expectativas propicia una visión menos formalista -es decir más sustantiva- al afirmar que se concreta en la protección de las expectativas razonablemente fundadas de los ciudadanos. En efecto, a diferencia de visiones puramente formales, esta concepción sostiene que la SJ no puede desarrollarse independientemente de la justicia o injusticia del derecho. La previsibilidad valiosa es aquella que afecta a expectativas jurídicamente razonables y legítimas a la luz de los principios y valores del ordenamiento. Así, la SJ que tienda a la concreción de una injusticia o una inequidad, aun cuando fuera previsible, no debe ser considerada valiosa ni debe ser entendida como un valor a perseguir.

Ahora bien, para determinar cuáles son las exigencias de la SJ en esta teoría, se requiere ejecutar una doble ponderación.Una de ellas de carácter interno, en la cual se deben balancear las distintas dimensiones de la previsibilidad (precisión, accesibilidad, estabilidad, etc.) para maximizarla según la naturaleza del sector jurídico y los intereses en juego en el caso concreto. Desde una valoración externa, en tanto, debe equilibrarse la SJ con otros valores con los cuales ésta puede colisionar, tales como la justicia o la igualdad, partiendo de la premisa que no siempre deberá triunfar en ese choque la SJ, por no ser el valor más importante. Para este enfoque, en definitiva, adquieren un rol fundamental los principios jurídicos en la generación de previsibilidad, ya que aportan coherencia normativa al sistema, y eso permite en última instancia a los ciudadanos orientarse y planificar sus vidas, no solo a partir de reglas explícitas, sino también comprendiendo los valores subyacentes en aquellas. Esta perspectiva se convierte entonces en una crítica al excesivo rigor formal que, bajo la excusa de la SJ, puede perpetuar injusticias, y además reconoce que el contenido sustancial de las regulaciones tiene directa influencia en la previsibilidad.

La caracterización efectuada en los párrafos precedentes, por cierto, se encuentra deliberadamente simplificada, ya que no se atienden muchas de sus aristas, por no considerarse relevantes para este trabajo (vg. la definición de quiénes son los agentes predictores de la SJ). Entonces, desde el resumido abordaje elaborado precedentemente se pueden extraer, a grandes rasgos, las siguientes tipificaciones: mientras el enfoque predictibilista se centra en la capacidad de anticipar las consecuencias jurídicas, y el controlabilista en la justificación y limitación de la discrecionalidad judicial, la concepción de la satisfacción de expectativas va un paso más allá, integrando la previsibilidad con consideraciones de justicia y legitimidad para proteger aquellas expectativas de los ciudadanos que son consideradas razonables y valiosas por el propio ordenamiento jurídico.

III.SEGURIDAD JURÍDICA EN DECISIONES ADOPTADAS A TRAVÉS DE LA IA

La IA, especialmente a través de los grandes modelos de lenguaje (LLM) y el análisis de grandes volúmenes de datos (big data), tiene el potencial de asistir en la búsqueda de precedentes, el análisis de documentos y la predicción y/o clasificación de casos. Así, al procesar datos de decisiones judiciales pasadas, la IA podría identificar patrones y ofrecer probabilidades sobre cómo se resolverán casos futuros, demostrando gran capacidad (y utilidad) de anticipación, lo que se vincula necesariamente con la concepción predictibilista de la SJ. Ya se ha dicho que esta última se centra en la capacidad del derecho para conocer o conjeturar de antemano la conducta humana y las consecuencias jurídicas de determinados actos o hechos, pero no cualquier previsibilidad fáctica resulta relevante para la SJ. En efecto, la previsibilidad que se busca tiene que ser sustentada en criterios normativos y universalizables que permitan inferir una consecuencia jurídica de un hecho o de un acto. Es en este punto en que se advierte una tensión con la predictibilidad de la IA, algorítmica y probabilística, que se basa en cambio en correlaciones de datos históricos.Si bien esto puede generar una alta fiabilidad fáctica, no necesariamente garantiza que la predicción se base en la corrección de la inferencia o en criterios normativos explícitos y justificables.

Los sesgos algorítmicos, derivados de datos de entrenamiento igualmente parcializados o tendenciosos, podrían llevar a predicciones que, aunque estadísticamente probables, perpetúen o reflejen injusticias pasadas, lo que entraría en conflicto con una previsibilidad jurídicamente correcta, en el sentido en que la expresa Pino (2023). Debe tomarse en consideración que -toda vez que la predictibilidad jurídica se beneficia tanto de la claridad, la univocidad y la estabilidad de las normas, como de la asequibilidad de la información jurídica- el uso de herramientas de IA podría mejorar notablemente la accesibilidad y el procesamiento de la información, contribuyendo de esa manera indirecta, como herramienta, a la SJ. No obstante, lo que resulta verdaderamente relevante es la calidad que adopte esa predicción a través de IA, ya que la predictibilidad que importa sigue dependiendo de la coherencia del sistema normativo en sí.

Desde otro ángulo, la IA tiene la potencialidad de identificar inconsistencias o desviaciones en la aplicación del derecho al analizar un vasto cuerpo de jurisprudencia. Si la IA puede señalar cuándo una ratio decidendi se aparta de patrones establecidos o de las posturas doctrinarias dominantes, podría facilitar el control y la rendición de cuentas de los órganos judiciales. Esta funcionalidad de la IA se relaciona, claramente con el concepto controlabilista de la SJ que busca la reducción de la discrecionalidad en los órganos -judiciales o ejecutivos- de aplicación del derecho, y de esa manera el énfasis reside en la necesidad de asegurar que las decisiones adoptadas sean transparentes, justificables.De todas maneras, la funcionalidad de la IA de auditar la coherencia jurisprudencial se encuentra intrínsecamente limitada por la naturaleza elusiva de la ratio decidendi, ya que ella no suele ser identificada de manera expresa en todo su alcance por el órgano jurisdiccional, sino que se integra con gran parte de contenido implícito.

Ahora bien, el estado actual de desarrollo de las herramientas de IA aún no permite superar el vicio de las black boxes (cajas negras) que se denominan así por cuanto las decisiones adoptadas a través de aquellas son opacas, es decir inexplicables. Existen, por cierto, grandes esfuerzos tendientes a superar el vicio de la falta de explicabilidad de sus decisiones, como se advierte en algunos modelos avanzados que devuelven los pasos de razonamiento seguidos mientras se procesan las consultas. En realidad, se trata de una explicación de los pasos a seguir en ese razonamiento, y de una búsqueda de transparencia de las fuentes de donde se abreva, y de los procedimientos para llegar a resolver la tarea encomendada, pero sin llegar a explicar las inferencias ni los razonamientos abstractos acerca de los motivos por los cuales una respuesta toma determinada forma y no otra. Es decir, la explicabilidad que permiten actualmente los modelos avanzados es más bien superficial a nivel de interfaz con el usuario y no a nivel profundo, algorítmico, que es precisamente lo que se persigue para garantizar la controlabilidad de toda decisión que se adopte. En definitiva, si los algoritmos de IA llegan a una predicción sin poder explicar claramente las razones subyacentes ni la cadena de inferencias normativas que llevaron a ese resultado, la controlabilidad de la decisión se vería comprometida.De esa manera ni los jueces, ni mucho menos los ciudadanos, podrían verificar si la decisión se basa en criterios normativos válidos y universalizables, o si es producto de correlaciones opacas.

Otra manera de ver las cosas parte de advertir que la predictibilidad algorítmica de la IA podría informar a los ciudadanos y operadores jurídicos sobre las tendencias jurisprudenciales y las consecuencias más probables de sus acciones, ayudándoles a formar determinadas expectativas. Sin embargo, si la IA reproduce sesgos algorítmicos presentes en los datos históricos podría generar expectativas que, aunque basadas en la práctica pasada, no sean razonables o legítimas desde una perspectiva de justicia o igualdad. A modo de ejemplo, si una determinada herramienta de IA se basa en gran me dida en la recopilación de datos pasados que incluyen discriminaciones (Ej. determinado sindicato ha cometido determinada cantidad de piquetes ilegales en una época pasada y como tal ha sido catalogado de violento por las autoridades de su época), podría, de igual manera, arribar a predicciones de resultados discriminatorios (Ej. la predicción se basa en que ese determinado sindicato cometerá actos de violencia). Es decir, la IA, al ser una herramienta funcional y muchas veces limitada a tareas específicas, podría tener dificultades para realizar la ponderación de valores y principios que es inherente a la SJ (En el ejemplo anterior: libertad sindical, derecho a huelga, etc.), entendida ésta como satisfacción de expectativas razonablemente fundadas de los ciudadanos a decisiones que incluyan los valores subyacentes del ordenamiento jurídico en cuestión, lo que a su vez las baña de legitimidad. La doble ponderación juega en estos casos un papel determinante ya que se puede concluir que la previsibilidad algorítmica no puede reducirse a dar una única respuesta a todos los casos idénticos, sin considerar el contexto, los valores en juego, los principios ordenadores del sistema jurídico, e incluso la mirada personal del juez.En definitiva, según esta postura, si las predicciones algorítmicas no contribuyen a la realización de otros valores su utilidad es limitada y, por tanto, no ofrece SJ.

IV. LAS DECISIONES AUTOMATIZADAS

Ninguna herramienta de IA tiene, al menos de momento, la capacidad de formular, comprender, ni aplicar juicios de valor de manera justificada y transparente. De ello se sigue que esa carencia – si se hace un uso incontrolado de la IA – podría socavar la legitimidad moral del derecho, aun cuando su utilidad como predictora fáctica resulte indudable. Integrar la IA en la toma de decisiones jurídicas implica resolver de manera previa otras cuestiones centrales, tales como su imparcialidad y su objetividad, nada de lo cual resulta posible mientras la opacidad de las black boxes exista.

Los casos difíciles son moneda común en los estrados judiciales, y en ellos se ventilan en ocasiones grandes dilemas constitucionales (Lariguet, 2011, pp. 38) en los cuales no existe una solución del todo clara (Ej. el alcance de la libertad sindical y del derecho de huelga frente al derecho de propiedad del empleador; o el ejercicio del ius variandi en el marco de adopción de nuevas tecnologías frente a la estabilidad del trabajador), donde se llegue a una decisión puramente algorítmica, basada en el reconocimiento de determinados patrones, podría concluir en una simplificación extrema del caso, desprovista de todo su contexto, y sin hacer mérito a los valores subyacentes en las posturas contradictorias en juego.

Desde otro ángulo, sería difícil una predicción correcta, en el sentido de subsunción de casos en normas preexistentes, y por ende de arribar a inferencias válidas y legítimas, cuando el derecho que sirve de alimento a la IA (entendiendo al derecho como dato) se encuentra incompleto. En efecto, el derecho se encuentra incompleto – y probablemente cada día lo será más – en la medida en que no contiene, ni puede contener, todas las precisiones normativas que se requieren para regular conductas fuertemente influenciadas por las tecnologías imperantes, que tienen un avance ultra dinámico.Ello así por cuanto el derecho positivo carece de la posibilidad de acompañar con igual velocidad a los cambios sociales que debe regir y que se ven impulsados por herramientas tecnológicas que evolucionan constante e indeteniblemente. En ese escenario las predicciones basadas en decisiones pasadas, sobre normas obsoletas, y en un sistema normativo incompleto se ve, claramente, inviable. Es aquí donde reside la importancia de las apreciaciones del juez humano, que al poner en valor el contexto del caso, y al cotejarlos con principios y valores fundamentales, puede justificar la subsunción de un caso en una norma que no resulta claramente aplicable, (o no lo es en el contexto o con el alcance que le dio el juez). Las decisiones adoptadas de manera automática a través de herramientas de IA carecen, de momento, de la posibilidad de explicar subsunciones complejas en base al análisis de valores, y, de esa manera, la SJ no podrá alcanzarse desde la mera predicción de patrones. En definitiva, la predictibilidad que ofrece la IA debe ser integrada cuidadosamente en este marco.

V. CUESTIONES A RESOLVER

Si bien la IA trajo consigo la promesa de una justicia más predecible y eficiente, esta predictibilidad no siempre se alinea con el concepto integral de SJ, que debe incluir dimensiones vinculadas, necesariamente, con la transparencia, la justificación, la equidad, la posibilidad de impugnación y la protección de los derechos fundamentales.

Se ha remarcado hasta el hartazgo que en múltiples aspectos el principal obstáculo para que nos entreguemos por completo a los brazos de la IA tiene que ver con la inaccesibilidad a sus razones y el modo de operación de sus algoritmos, especialmente en modelos de aprendizaje automático complejos o en redes neuronales, ya que eso dificulta o imposibilita comprender cómo se llegó a una decisión determinada.Si no resulta posible comprender cabalmente los razonamientos algorítmicos, no se podrá determinar si el sistema se desvía de la norma jurídica, o si utiliza elementos de juicio no previstos en la regulación aplicable o cómo pondera distintos aspectos del caso a resolver. Si no es posible entonces la trazabilidad de las decisiones, el debido proceso y el derecho de defensa no podrán ejercerse en plenitud y de ello se deriva que este tipo de sistemas no generará la SJ buscada en primer término.

Lo mismo puede predicarse de otros aspectos -ya señalados- como los sesgos y prejuicios existentes en la sociedad actual o pasada, que son captados a través de la toma de datos con que se alimenta la IA y que claramente llevarían a su reproducción mediante decisiones discriminatorias basadas en factores como la opinión política o gremial, el género, la raza, la religión, la edad, el estado de salud, o la orientación sexual ( Por ej. algoritmos que clasifican incorrectamente a personas de determinada raza o etnia como futuros criminales, o que predicen mermas de rendimiento en trabajadores de cierta edad o nacionalidad). Por otra parte, no es estrictamente necesario que los datos de entrenamientos sean efectivamente discriminatorios para arrojar tales resultados, ya que a ellos la IA podría arribar igualmente a través del análisis de datos imperfectos, insuficientes, erróneos, desactualizados o no representativos.

Un aspecto no menor que deberá ser abordado en profundidad, para garantizar la SJ, es aquel vinculado a la atribución de responsabilidad, en razón de que la autonomía de la IA (porque tiene capacidad para ejecutar acciones y procesos no previstos por sus creadores o fabricantes) hace que la cadena causal sea difícil de establecer cuando se produce un daño.En efecto, los factores de atribución tradicionales como la culpa se desdibujan en el contexto algorítmico, y ello lleva a pensar en la necesidad de cambiar a factores objetivos y a búsqueda de soluciones que impliquen el reparto de las responsabilidades en una larga cadena que va desde el fabricante creador hasta el usuario final (Por ej. los desvíos de fines en la utilización de IA, las filtraciones de datos, los ataques cibernéticos, las suplantaciones de identidad, y un largo etcétera). Es por todo esto que existe incertidumbre sobre quién debe indemnizar los daños que se produzcan, con qué alcance, como asegurar el pago de la indemnización, contra quien perseguir y de qué manera su cobro, y si resultan posibles formas solidarias de responsabilidad. Va de suyo además que la autonomía de la IA se traduce en un comportamiento impredecible, que es intrínseco a estas herramientas, lo que poco contribuye a generar confianza. Queda claro entonces que la SJ no se ve garantizada en estos aspectos.

Derivado de su opacidad inherente, ya analizada, y de la matematización del pensamiento jurídico, resulta harto difícil la justificación normativa y racional de las decisiones que deba adoptar la IA. Ello en razón de que las decisiones judiciales requieren empatía, sensibilidad, prudencia, sentido común y pensamiento crítico para la interpretación y aplicación del derecho en casos complejos o que involucran valores éticos y morales lo que por cierto va mucho más allá de la mera precisión predictiva. Piénsese que los algoritmos resultan a todas luces ineficientes para comprender y valorar situaciones de vulnerabilidad (por ej. por superposición de circunstancias sociales, económicas, culturales, étnicas, etc.), o cuando las decisiones deben valorar presunciones normativas en favor de sectores hiposuficientes (Ej. los trabajadores y el principio protectorio) donde se requiere una consideración de matices y contexto que una máquina no puede proporcionar. Es así que se advierte que el discurso jurídico en general se encuentra empapado de conceptos valorativos que la IA no puede procesar adecuadamente.No podemos entonces privilegiar, de ninguna manera, la eficiencia en detrimento de los derechos fundamentales, ya que eso acarrea, nuevamente, inseguridad jurídica.

Más aún, si la predictibilidad algorítmica fuese un valor en sí mismo, es decir un fin último que se deba fomentar, ello podría traer aparejado como beneficio una estandarización de la jurisprudencia -lo que prima facie colabora en el objeto de dotar de SJ a un determinado ordenamiento- pero en paralelo podría acarrear el peligro del empobrecimiento conceptual de aquella, en la medida en que se desincentiva la reflexión y la concreción del valor justicia en casos particulares. Podría incluso llegar a pensarse que en esa hipótesis las herramientas de IA desdibujarían la independencia judicial, cuando el juez, por ejemplo, adecue la sentencia a la predicción algorítmica, en una especie d e profecía autocumplida.

Desde otro ángulo, las herramientas tecnológicas en su estadio actual no alcanzan a predecir resoluciones en casos de métodos anormales de terminación de los procesos judiciales. Si bien estas herramientas podrían sugerir pautas para arribar a transacciones o acuerdos conciliatorios de tipo estandarizado, fundamentalmente cuando únicamente se encuentren vinculados aspectos pecuniarios; en cambio no tendrían a su alcance la captación en las convicciones íntimas y sentimientos de las partes que pretende conciliar, ni mucho menos las intrincadas estrategias -y estratagemas- que los diferentes abogados y juristas podrían diseñar, las que en ocasiones sirven, precisamente, para eludir -o directamente evadir- la aplicación de determinadas normas.Así las cosas, si bien la IA puede predecir el resultado de un pleito o de un acuerdo amistoso cuando en ciertos casos cuando se contrata a un determinado abogado, o cuando el caso se resuelve entre el abogado fulano contra el abogado mengano, o cuando se trata de tal o cual juzgado, cabe preguntarse si es esto lo que realmente buscamos como sociedad, ya que en estos aspectos la IA no ofrece la predicción acerca de la eficacia del derecho sino que ello tal vez marque un rumbo – posiblemente sin retorno- hacia la pereza intelectual.

VI. CONCLUSIONES

Por empezar, la ausencia de una definición ampliamente aceptada de Inteligencia Artificial dificulta la acción regulatoria estatal, lo que aunado a la carencia de un enfoque sistemático de la problemática analizada, tiende a generar inseguridad jurídica, todo lo contrario a lo que se pretende con el mismo uso de las herramientas de IA. La regulación -de lege ferenda- debe establecer una guía ética de actuación que incluya cuanto menos las directrices para un uso responsable y los mecanismos de gobernanza necesarios que permitan transparentar la toma de decisiones algorítmicas, e identificar los casos difíciles que requieran la resolución humana en una o varias de sus etapas.

La búsqueda de la estandarización y la eficiencia algorítmica no debe conducir a la proscripción de la discrecionalidad judicial racionalmente justificada, ya que la indeterminación, por la vaguedad o ambigüedad de los preceptos, o por los conflictos antinómicos que genera, constituye un rasgo inevitable de los sistemas jurídicos.Es por ello que cabe afirmar que la predictibilidad que la IA ofrece sólo es valiosa si se alinea con la identificación correcta de las consecuencias jurídicas – y de esta manera podemos hablar de la SJ como valor- lo que exige un análisis conceptual que la IA, por sí misma, no está equipada para realizar sin supervisión y validación humana, o al menos no lo está actualmente, ni lo estará en el futuro inmediato.

En definitiva, mientras la predictibilidad algorítmica es deseable en la medida en que permita dotar de coherencia a las decisiones judiciales y de eficiencia a los decisores en su labor, su aplicación sin un marco jurídico y ético específico genera profunda inseguridad jurídica al colisionar de frente con la necesidad de transparencia, de justificación racional, de protección contra sesgos y discriminación, de reglas claras de atribución de responsabilidad, y de la salvaguarda de la dignidad humana y los derechos fundamentales. Lograr el delicado equilibrio entre la innovación tecnológica y la salvaguardia de los pilares del Estado de Derecho es el reto que los juristas deben atender de manera inmediata, antes que esas innovaciones se escapen de sus posibilidades doctrinarias.

VII. BIBLIOGRAFÍA

Cotino Hueso, L. y Castellano, P. S., Directores. (2024). Tratado Sobre El Reglamento De Inteligencia Artificial De La Unión Europea. Ed. Aranzadi, S.A.U.

Granero, H. R.

(2024). Ley de Inteligencia Artificial en Europa: Un paso más hacia la meta final y un desafío a la investigación. elDial.com, Doctrina. DC33B8. Albrematica.

(2024). Inteligencia Artificial en el Derecho: Entre la Innovación y la Protección de Derechos. elDial.com. Albrematica.

Lifante Vidal, I. (2013). Seguridad Jurídica y previsibilidad. Cuadernos de Filosofía del Derecho 36, pp. 86. Doxa.

Lozano, R. A. (Dir.). (2020). Inteligencia Artificial y Derecho, un reto social. elDial.com, Editorial Albrematica.

Pino, G. (2023). Seguridad jurídica. . Revista en Cultura de la Legalidad, 25, pp. 262-284. Eunomía.

Zucca, L., Lariguet, G., Martínez Zorrilla, D, & Álvarez, S. (2011). Dilemas Constitucionales. Un debate sobre sus aspectos jurídicos y morales. Marcial Pons.

———-

(*) Abogado UNC. Doctorando en Derecho UBP. Magíster UBP en Derecho Laboral. Especialista UBP en Derecho Laboral. Diplomado UNC en Seguridad Social. Profesor por concurso en derecho del Trabajo y la Seguridad Social, Facultad de Derecho UNC. Expositor. Publicista. Columnista.

 

Salir de la versión móvil