#Doctrina Responsabilidad civil por el uso de algoritmos. Justificación del factor de atribución

Aún no estás suscripto a Microjuris? Ingresá aquí.


Autor: D’Angelo, Romina

Fecha: 04-03-2026

Colección: Doctrina

Cita: MJ-DOC-18655-AR||MJD18655

Voces: RESPONSABILIDAD CIVIL – TECNOLOGIA – INTELIGENCIA ARTIFICIAL – CULPA CIVIL – DOLO CIVIL – TEORIA DEL RIESGO – DAÑOS Y PERJUICIOS – OBLIGACIÓN DE SEGURIDAD

Sumario:
I. Propuesta de análisis ¿Qué desafío puede aparejar la cuestión? II. Posibilidades de análisis a partir de nuestras normas. III. Cuando el algoritmo duele. Conclusión.

Si te interesa profundizar en el tema sobre ‘Responsabilidad civil por el uso de algoritmos’, este curso es para vos Aquí

Doctrina:
Por Romina D’Angelo (*)

I. PROPUESTA DE ANÁLISIS ¿QUÉ DESAFÍO PUEDE APAREJAR LA CUESTIÓN?

Me propongo -y les propongo- reflexionar sobre el factor de atribución en la responsabilidad civil por el uso de algoritmos, como uno de los ejes más problemáticos del derecho privado contemporáneo. No se trata sólo de adaptar viejas categorías a nuevas realidades tecnológicas sino de revisar los fundamentos de imputación en un contexto con un agente dañador peculiar -un sistema que aprende, piensa, decide y actúa como humano con un grado creciente de autonomía-. En ese análisis se podrá ver que, aquello que se presenta inicialmente como una tensión entre culpa y riesgo, enseguida revela más bien el carácter estructural de una cuestión que exige la reacción del derecho frente a ciertas características, y la necesidad de repensar soluciones adecuadas a un tipo de causalidad tecnológica opaca, difusa e imprevisible.

El término «algoritmo» no es nuevo.

Fue ideado en el año 820 -aproximadamente- por el matemático Mohammed Musa al Khwarizmi, nacido en Corasmia de Jiva -actual Uzbekistan- Asia, cuya obra traducida al latín se conoció como Algoritmi de numero Indorum, de la que se tomó el término «algoritmo» en inglés.

Su libro Algoritmi de numero Indorum -el cálculo con números indios- fue traducido al latín en el siglo XII y se difundió rápidamente en Europa. El título hacía referencia a la «numeración de los indios» es decir, al sistema decimal que hoy utilizamos (1).

Actualmente, el concepto se vincula a la informática, aunque no se circunscribe a ese ámbito.

Una definición simple, lo describe como una secuencia ordenada de pasos que permite llegar a la solución de un problema -por ejemplo, la fórmula del art.1746 del CCyC es un algoritmo normativo-.

Una definición un poco más técnica nos dice que es un conjunto de reglas que, aplicadas sistemáticamente a datos de entrada apropiados, resuelven un problema en un número finito de pasos elementales (2).

Pero, en general, podemos decir que todo algoritmo tiene una serie de pasos tendientes a obtener un resultado.

Existe una «entrada» y una «salida» y, en entre éstas, las instrucciones específicas para resolver el problema.

En el ejemplo de la fórmula del art. 1746 del CCyC como conjunto de reglas lógicas y operaciones ordenadas que, a partir de ciertos datos de entrada, conduce a un resultado fijando una estructura de cálculo, los datos de entrada serán la edad del damnificado al momento del hecho, la expectativa de vida, el porcentaje de incapacidad, la tasa de interés aplicable; y la secuencia de pasos -las instrucciones- estará dada por la fórmula a utilizar; la salida será el monto resultante como capital.

Hoy, los algoritmos son el eje de la inteligencia artificial -IA en adelante-.

En un inicio, fueron proyectados para resolver determinados problemas con parámetros previamente introducidos que otorgaban cierta previsibilidad.

Luego, a medida que fueron avanzando en complejidad, se los comenzó a programar para «aprender» a solucionar problemas o cuestiones y se los diseñó para modificar su funcionamiento a partir de la experiencia.

Nos adentramos así a otra rama de la ingeniería informática, conocida como IA.

Alan Turing -a quien se considera como uno de los fundadores de la disciplina- estaba convencido de que se podían construir máquinas que emularan capacidades del cerebro humano.

Nos dejó un trabajo del año 1948 donde definió a un tipo de «máquinas desorganizadas» con reglas para establecer conexiones variables producto del aprendizaje.Este trabajo es uno de los orígenes de lo que hoy se conoce como redes neuronales dando origen al concepto de «aprendizaje automático» -machine learning- que es la capacidad de ciertos algoritmos para aprender por sí mismos a través de datos disponibles o adquiridos, captando patrones complejos para tomar decisiones.

A modo de reseña, el machine learning distingue tres tipos de algoritmos:

a) el supervisado o guiado: se enseña al algoritmo por medio de ejemplos proporcionándosele cierta cantidad de datos que se agrupan bajo etiquetas. Por ejemplo, se le exhibe una serie de imágenes que muestran un objeto etiquetado como una «casa» y el algoritmo aprende a distinguir así una «casa» para después identificarla o clasificarla;

b) el no supervisado: aprende a identificar patrones a través de procesos de abstracción y comprensión sin etiquetas, siendo el propio algoritmo el que clasifica y ordena la información, estructurándola. Refina su función durante el proceso mismo -por ejemplo, los algoritmos que recomiendan películas monitorean los patrones de los consumidores y predicen gustos en base a recomendaciones de usuarios afines-;

c) el de refuerzo: adquiere experiencia a través de un proceso de ensayo y error; posee un sistema de recompensas que refuerza su aprendizaje. La experiencia pasada es lo que le proporciona la información para adaptar su respuesta a un mejor resultado.

Por su parte, el «deep learning» -aprendizaje profundo- es un tipo de machine learning que combina algoritmos supervisados, no supervisados y de refuerzo. Se trata de una versión de aprendizaje automático que intenta imitar el razonamiento humano: los algoritmos trabajan en capas de redes neuronales artificiales.

En las redes neuronales profundas, el flujo estructural básico de la información es ascendente.

Las capas inferiores reciben los datos «crudos» de entrada y aprenden representaciones simples y locales.En ese nivel no hay abstracción semántica sino detección de rasgos elementales -estas representaciones son el insumo sobre el cual trabajarán las capas siguientes-.

Las capas intermedias toman esas representaciones ya transformadas y las combinan, refinan y reconfiguran para captar patrones progresivamente más complejos.

Finalmente, las capas superiores operan sobre representaciones altamente abstractas, cercanas a la noción funcional de «objeto», «categoría» o «decisión»; esa capacidad de abstracción del sistema aumenta con la profundidad de la red: cada capa no «entiende» el dato original, sino una representación ya elaborada o codificada por las capas precedentes.

En rigor, el aprendizaje profundo se organiza jerárquicamente: las capas inferiores extraen rasgos básicos, las superiores construyen abstracciones cada vez más complejas a partir de esos rasgos y el ajuste del conjunto se logra mediante un proceso de retroalimentación durante el entrenamiento -por ejemplo, utilizan este tipo de aprendizaje profundo aquellos dispositivos médicos que pueden detectar con precisión de forma automática células cancerígenas- (3).

Estos tipos de sistemas cognitivos descriptos -muy brevemente, ya que el trabajo no lo amerita-, donde la frontera entre lo real y lo simulado se difumina creando contenidos sin autor humano individualizable, traen consigo no sólo un cambio de paradigma en la utilización de herramientas informáticas en sus más variados aspectos y un impacto en la forma de vida y trabajo de las personas, sino la necesidad de repensar algunas facetas jurídicas relativas a la responsabilidad que pudieran generar.

Sabemos que dichos sistemas inteligentes no sólo manejan, organizan o clasifican datos, sino que construyen o crean narrativas o imágenes, toman decisiones que imitan y superan las capacidades humanas.Por lo que el repaso que hoy reclaman no es menor considerando sus características principales que deben incidir en el análisis -fundamentalmente- del factor de atribución de responsabilidad (4).

A diferencia de los sistemas informáticos tradicionales, la IA generativa no produce resultados mediante la ejecución lineal de instrucciones ni la recuperación de contenidos preexistentes, sino a través de procesos inferenciales de naturaleza probabilística que generan salidas originales autónomas no predefinidas.

Este modo de producción tensiona y desborda las categorías clásicas del derecho de autor, en tanto el resultado no es reconducible a un acto creativo humano consciente ni susceptible de imputación autoral individual, poniendo en crisis los presupuestos dogmáticos de autoría, originalidad y creación que estructuran al menos una parte del sistema legal.

Es decir, la IA generativa introduce un modo de producción de resultados que no se ajusta a la lógica causal subjetiva sobre la que se edificó el derecho de autor moderno.

Los sistemas contemporáneos de decisión algorítmica, en especial aquellos basados en machine learning e IA generativa, presentan una autonomía funcional que los habilita a producir resultados sin intervención humana directa en cada instancia decisoria.

Ello genera un grado de «imprevisibilidad» del resultado concreto y una «opacidad» y «autonomía» inherentes del proceso de decisión que subsiste incluso para los desarrolladores y proveedores, evidenciando una ruptura en la tradicional relación entre control humano, previsibilidad y responsabilidad.

También cabe mencionar la característica de la «conectividad» en cuanto a que los sistemas de IA articulan sus funcionalidades a través de distintos dispositivos interconectados, de donde toman datos e interactúan con el entorno, lo que hace compleja la determinación de la incidencia causal con el daño.

A su vez, son sistemas dinámicos sujetos a infinitas y constantes actualizaciones y mejoras, y procesan grandes volúmenes de información.

Fue la Comisión Europea quien señaló estas características para el tratamiento de la responsabilidad civil:«opacidad», «complejidad» de los componentes que pueden generar dificultades al determinar cuál causó el daño; «apertura» como particularidad que dificulta encuadrar el supuesto en la noción clásica de producto terminado frente a la variabilidad de los sistemas sujetos a actualizaciones y mejoras constantes una vez puestos en circulación y a corto tiempo.

Refirió esa comisión que el uso de IA «.crea riesgos que deben abordarse.» y que «.ciertas caract erísticas de la IA, como la opacidad de muchos algoritmos que dificulta la investigación de relaciones causales, plantean riesgos específicos y potencialmente altos para la seguridad y los derechos fundamentales que la legislación existente no puede abordar o en vista de los cuales es difícil hacer cumplir la legislación existente (.). Como consecuencia, puede resultar difícil evaluar y probar si alguien se ha visto injustamente desfavorecido por el uso de sistemas de IA.» (sic) (5).

Sobre esa base, comulgo con la idea de que tal autonomía funcional y opacidad decisoria de los sistemas de machine learning y de IA generativa, permiten caracterizarlos como fuentes de riesgo jurídicamente relevante porque introducen en el tráfico social un factor de producción de daños cuya dinámica escapa fundamentalmente al control pleno de quién los pone en funcionamiento.

El art. 1757 del Código Civil y Comercial -en adelante CCyC- establece la responsabilidad objetiva por el riesgo o vicio de las cosas y de las actividades riesgosas, prescindiendo de toda valoración subjetiva de la conducta. En ese marco, la imprevisibilidad del resultado concreto y la opacidad del proceso decisorio no operan como eximentes, sino como rasgos estructurales del riesgo creado.

La IA generativa encaja en esta lógica porque el proveedor, desarrollador o explotador del sistema decide introducir en el mercado o en la esfera social una tecnología cuyo funcionamiento efectivo -en particular, la producción de resultados específicos- no puede ser anticipado aun con conocimiento técnico avanzado.Por lo que, quien obtiene el beneficio de la actividad, asume correlativamente los riesgos que ella genera conforme al principio de imputación objetiva que atraviesa los arts. 1757 y 1758 del CCyC, en tanto la opacidad intrínseca del sistema refuerza, y no debilita, la aplicación del régimen objetivo.

En la medida en que el proceso decisorio resulte inaccesible o no plenamente explicable incluso para sus propios diseñadores, se rompe la tradicional asociación entre previsibilidad, control y culpa, desplazando el análisis hacia un plano puramente objetivo: el de la asignación normativa del riesgo.

El daño deja de ser un accidente atribuible a un error humano individual para convertirse en la realización del riesgo propio de la actividad tecnológica desplegada.

Este encuadre se enrola con los arts. 1722 y 1723 del CCyC, en tanto el factor de atribución objetivo prescinde de toda indagación sobre la diligencia del agente, y con el art. 1710 que impone un deber general de prevención del daño que se traduce en obligaciones reforzadas de diseño, control, monitoreo y, llegado el caso, limitación o cesación del uso, justamente porque el riesgo no es siempre y completamente gobernable con posterioridad.En ese andamiaje, estimo que la IA generativa no desafía el derecho de daños argentino, sino que lo activa en su versión más polarizada entre factores de atribución, pues la combinación de características como la autonomía funcional, imprevisibilidad del resultado concreto y opacidad decisoria constituye una manifestación paradigmática del riesgo creado que justifica la imputación objetiva a quien introduce, controla o se beneficia del sistema, aun cuando no pueda explicarse exhaustivamente cómo se produjo el daño.

En otras palabras, las características estructurales mencionadas tornan prácticamente inviable la imputación fundada en la culpa o dolo tradicionalmente concebida, desde que se dificulta determinar si el sujeto o agente imputable es el fabricante, el vendedor, la máquina, el programa o el usuario, y acreditar quién omitió obrar con la diligencia debida o quién actuó con dolo.

La opacidad de los procesos decisionales, el comportamiento autónomo, la evolución constante de los sistemas, la interconectividad, la imprevisibilidad de los resultados y la capacidad de generar contenido de manera no plenamente controlable tornan inidóneo, en principio, el recurso a un factor subjetivo de atribución concebido para conductas humanas directas y transparentes.

Es que estos sistemas evidencian por sus características una potencialidad dañosa que puede repercutir de manera negativa en los derechos de las personas y la noción de culpa -en ese contexto- se vuelve invisible, surgiendo sí la necesidad de revalorizar categorías objetivas y funcionales como el riesgo creado, el deber de prevención y el equitativo y dinámico reparto de las cargas probatorias según el caso, como vías para restaurar la equidad frente al daño algorítmico.

En este escenario, la responsabilidad no se funda en la omisión de deberes específicos de diseño, vigilancia y supervisión adaptados al ciclo de vida del sistema de IA, aun cuando se hablara de estándares agravados o profesionales de diligencia.Sino en la creación de un riesgo jurídicamente relevante, en el aprovechamiento de una actividad riesgosa o en el dominio de una cosa o proceso potencialmente dañoso derivado de su opacidad, autonomía decisional, capacidad de aprendizaje, impacto masivo y dificultad de control posterior.

Esta idea, profundamente arraigada en la teoría del riesgo provecho, cobra especial fuerza en el ámbito de la IA donde el proveedor controla el diseño inicial, las decisiones de entrenamiento, la selección de datos, los parámetros de uso, el entorno de despliegue y la continuidad operativa del sistema. Aunque no controle cada decisión individual del algoritmo como anticipaba, sí domina el marco en el cual ese algoritmo actúa.

La imputación objetiva se ve reforzada por la dificultad probatoria estructural que enfrentan las víctimas de daños causados por IA. Exigir la prueba de la culpa o del defecto técnico específico, implicaría trasladar al damnificado una carga prácticamente imposible dada la complejidad y opacidad algorítmica.

La responsabilidad objetiva cumple aquí una función de corrección estructural de esa asimetría, alineándose con una concepción moderna del derecho de daños como instrumento de distribución razonable de los costos sociales del progreso tecnológico.

Asimismo, el uso de IA introduce un tipo de riesgo que no se agota en el daño individual, sino que puede afectar derechos fundamentales, generar discriminaciones sistémicas o producir errores replicables a gran escala.

Esa potencialidad expansiva torna insuficiente un régimen centrado exclusivamente en la culpa y justifica un enfoque preventivo y distributivo del daño propio de la responsabilidad objetiva. El daño deja de ser un evento aislado para convertirse en un costo previsible de una actividad organizada y lucrativa (6).

No se trata de sancionar una conducta reprochable sino de imputar normativamente un daño a quien decidió poner en circulación una fuente autónoma de riesgo conforme a una lógica de justicia de protección efectiva de los derechos.Esa es la base dogmática sobre la que puede construirse un régimen de responsabilidad objetiva por el uso de IA.

Por otra parte, como la determinación del régimen de responsabilidad exige como presupuesto ineludible identificar la naturaleza de la obligación asumida por el deudor, es claro que se impone distinguir si el compromiso contractual recae sobre la obtención de un resultado concreto y verificable o si, por el contrario, sobre el despliegue de una actividad técnicamente idónea, diligente y conforme al estado del arte aun cuando el resultado final permanezca sujeto a márgenes de incertidumbre propios del funcionamiento del sistema.

Cuando del contenido obligacional surge que el deudor garantiza un determinado resultado -sea por estipulación expresa, por la finalidad económica del contrato, por la confianza legítima generada o por la manera en que el servicio es ofrecido e integrado en la prestación-, el incumplimiento se configura objetivamente a partir de la falta de obtención de ese resultado. En tales supuestos, la imputación de responsabilidad prescinde de un análisis autónomo de la culpa en tanto el riesgo de la ineficacia del sistema es asumido por quien lo pone en funcionamiento y lo ofrece como apto para producir un efecto determinado.

Distinta es la situación cuando el contrato delimita expresamente el uso de la IA como una herramienta de apoyo, sujeta a probabilidades, márgenes de error o intervención humana relevante, y el deudor sólo se obliga a emplearla conforme parámetros técnicos adecuados, actualizados y razonablemente controlados. En este escenario, la obligación conserva el carácter de obligación de medios y la responsabilidad se estructura sobre un factor subjetivo y exige la prueba de que el deudor no actuó con la diligencia exigible según las circunstancias del caso, la naturaleza del sistema y el grado de profesionalidad comprometido.

Ahora bien, el avance progresivo de la IA incide de modo relevante en esta distinción clásica.A medida que estos sistemas incrementan su autonomía, su capacidad predictiva y su integración en decisiones sensibles, se reduce el espacio de lo aleatorio jurídicamente tolerable y se eleva el estándar de imputación.

Ello no implica una conversión automática de toda prestación basada en IA en una obligación de resultado, pero sí obliga a una interpretación más estricta de los compromisos asumidos, en particular cuando el proveedor se beneficia económicamente de la promesa de eficiencia, precisión o confiabilidad del sistema, en la medida en que el deudor controla el diseño y domina el riesgo, la implementación y el funcionamiento del sistema siendo también el sujeto más idóneo para soportar las consecuencias dañosas derivadas de su fracaso funcional.

II. POSIBILIDADES DE ANÁLISIS A PARTIR DE NUESTRAS NORMAS (7)

Reconociendo la dificultad que estas cuestiones pudieran aparejar y que, por ello, la interpretación debe ser dúctil, abierta, genérica y flexible para que pueda adaptarse al espíritu dinámico del CCyC (8), una posibilidad es abordar la cuestión como actividad riesgosa.

En este caso, como adelantaba, la responsabilidad es objetiva según arts. 1722, 1757 y 1758 del CCyC y la teoría comprende: a) daños causados por las cosas riesgosas por su naturaleza; b) por las cosas que no son riesgosas per se, pero cuya intervención activa provoca un daño (potencialidad dañosa); y c) daños ocasionados por actividades riesgosas o peligrosas por su naturaleza, por los medios empleados o por las circunstancias de su realización, intervengan o no cosas en la actividad desarrollada.

No es necesario encuadrar al algoritmo como cosa para aplicar el art. 1757 CCyC, pues la norma no se agota en el riesgo o vicio de las cosas, sino que también contempla las actividades riesgosas o peligrosas, y allí es donde la imputación por uso de IA encuentra su anclaje más firme.Desde esa perspectiva, el algoritmo no sería el objeto pasivo de calificación jurídica sino el medio técnico a través del cual se despliega una actividad organizada y riesgosa.

El riesgo no reside en el «algoritmo-cosa», más bien en la actividad de diseño, entrenamiento, implementación y utilización de sistemas de IA con capacidad autónoma de decisión o impacto relevante sobre derechos de terceros.

El citado art. 1757 del CCyC permite esa lectura sin necesidad de reconceptualizar el algoritmo como cosa.

Esta vía evita el estiramiento teórico del art. 16 del CCyC y se alinea mejor con la lógica del riesgo creado: la fundamentación del factor objetivo quedaría en la noción de actividad riesgosa, no en la naturaleza jurídica del algoritmo considerado aisladamente.

Por otra parte, la atribución de responsabilidad por los daños causados por sistemas de IA debe recaer en el sujeto que introduce, organiza y explota la actividad riesgosa que dichos sistemas despliegan. En este contexto, realizar la actividad no equivale necesariamente a ejecutar actos materiales directos sino a dirigirla, estructurarla y beneficiarse de ella, sea de manera inmediata o mediata.

La noción de dirección funcional es central y dialoga con la doctrina clásica, en tanto el control relevante no es el dominio de cada decisión algorítmica individual, sino el poder de configuración del sistema, de determinación de sus fines y de inserción en un proceso económico o profesional.

Desde esta perspectiva, el sujeto responsable será aquel que tenga la posibilidad jurídica y fáctica de decidir si el sistema se utiliza, con qué finalidad, en qué condiciones y bajo qué parámetros de funcionamiento, lo que también justifica la imputación objetiva del daño aun cuando el agente no intervenga materialmente en el proceso decisorio del algoritmo ni tenga conocimiento del error concreto que dio lugar al perjuicio -art.1758 del CCyC-.

Por supuesto, el presunto responsable conserva la posibilidad de eximirse total o parcialmente acreditando la existencia de una causa ajena que interrumpa o atenúe el nexo causal, como el hecho del damnificado, el hecho de un tercero por quien no deba responder o el caso fortuito en los términos de los arts. 1728 , 1729 y 1730 del CCyC. Sin embargo, tratándose de actividades altamente tecnificadas y organizadas, la carga de acreditar las eximentes recae con especial rigor sobre quien ha creado y explotado el riesgo, no siendo suficiente lógicamente la alegación de la imprevisibilidad del comportamiento algorítmico.

Otra posibilidad es introducir en el análisis la llamada obligación de seguridad.

La construcción de la responsabilidad civil derivada del uso de algoritmos a partir de la obligación de seguridad es dogmáticamente sólida y, a mi juicio, una vía coherente para resolver daños causados por tecnologías complejas sin forzar categorías tradicionales pensadas para conductas humanas individualizadas.

La obligación de seguridad se integra al contenido del contrato por imperio del principio de la buena fe objetiva que atraviesa todo el derecho privado y opera como criterio de integración normativa de las relaciones jurídicas.

Los arts. 9 , 729 y 961 del CCyC no sólo imponen un deber de conducta leal, sino que proyectan un estándar de protección activa del cocontratante frente a riesgos creados por la propia organización contractual.

En ese marco, todo contratante asume, aunque no lo haya estipulado expresamente, el deber de no causar daños a la persona ni a los bienes de la otra parte en ocasión o con motivo de la ejecución del contrato.

Cuando el contrato incorpora sistemas algorítmicos o de IA como instrumentos de prestación, decisión, clasificación, recomendación o control, ese deber de seguridad se intensifica.

No se trata de un deber de diligencia subjetiva, sino de una garantía objetiva:quien introduce un sistema algorítmico en la relación jurídica asume el riesgo de su funcionamiento, de sus sesgos, errores, opacidad y efectos dañosos previsibles o no previsibles para el cocontratante. En este punto, la aplicación del factor objetivo de atribución también es plenamente consistente con los arts. 1722 y 1723 del CCyC en tanto el daño se imputa con prescindencia de culpa y sólo puede exonerarse el responsable mediante la prueba de una causa ajena.

Estimo que la obligación de seguridad es, además, una obligación secundaria pero autónoma que coexiste con la obligación principal del contrato. No es accesoria ni subordinada en términos de relevancia jurídica: su incumplimiento genera responsabilidad, aunque la prestación principal se haya ejecutado correctamente.

Secundaria porque se define por contraposición a la principal que emerge del contrato; junto a los deberes de prestación esenciales que derivan del negocio jurídico, en ciertos contratos, como consecuencia de ciertas circunstancias riesgosas que caracterizan su ejecución, es dable inferir la existencia de otras obligaciones secundarias orientadas a proteger la incolumidad de los contratantes durante el iter negocial. Se trata de deberes secundarios de protección que fluyen de lo convenido por aplicación de la buena fe y que no guardan respecto de la prestación esencial una relación propia de accesoriedad.Autónoma porque el deber de seguridad, anexo a la obligación principal, no está subordinado a esta última y tiene identidad conceptual y funcional propia dentro del contrato, toda vez que está ligado a un interés distinto y separable de la prestación, por lo que el cumplimiento de la obligación denominada principal no conlleva el de la obligación de seguridad, del mismo modo que su extinción no provoca similar efecto respecto de esta última (9).

Con ese enfoque, un proveedor puede haber cumplido formalmente con el servicio algorítmico contratado y, sin embargo, resultar responsable si ese sistema lesionó derechos personalísimos, patrimoniales o expectativas legítimas del usuario, precisamente, porque el deber de seguridad fue vulnerado.

Desde el punto de vista de su estructura obligacional, esta obligación es de resultado.

Conforme los arts. 774 incs. b y c y 1723 del CCyC el deudor no se obliga a poner medios razonables, sino a garantizar que el resultado dañoso no se produzca. El resultado comprometido no es el éxito técnico del algoritmo, sino la indemnidad del cocontratante frente a los riesgos que ese algoritmo introduce. Si el daño ocurre, el incumplimiento se presume y la responsabilidad se activa, sin perjuicio de la acreditación de la eximente.

Por otra parte, cuando el daño se produce en el marco de una relación de consumo, la valoración se vuelve aún más intensa. El art. 40 de la ley 24.240 impone responsabilidad solidaria a todos los integrantes de la cadena de producción y comercialización sin admitir fragmentaciones causales ni derivaciones hacia «la complejidad técnica» del algoritmo como excusa exoneratoria. En este contexto, la obligación de seguridad se proyecta como deber legal reforzado, orientado a la protección del consumidor frente a riesgos tecnológicos que no puede conocer, controlar ni auditar.

La proyección del art. 40 de la ley 24.240 sobre los daños causados por sistemas algorítmicos tiene un alcance particular. La norma parte de una premisa estructural:el consumidor no está en condiciones de identificar, aislar ni probar cuál de los múltiples eslabones técnicos u organizativos de la cadena causó el daño.

Por eso el legislador opta por un régimen de responsabilidad solidaria que desplaza el foco desde la causalidad individual hacia la organización del riesgo que rara vez es atribuible a un único acto identificable. Puede provenir de un sesgo en el entrenamiento del modelo, de una decisión de diseño, de un error en la actualización del software, de una mala integración con otros sistemas, de un uso comercial determinado o de una finalidad económica impuesta por quien explota el algoritmo.

Frente a ese entramado, el art. 40 citado impide cualquier intento de descomponer el daño en microcausalidades técnicas para diluir la responsabilidad. Todos los que participan en la cadena de producción, distribución, comercialización o utilización del sistema responden solidariamente por el daño causado. El consumidor no conoce el funcionamiento interno del sistema, no puede auditar el código, no accede a los datos de entrenamiento, no controla los criterios de decisión ni puede anticipar los riesgos emergentes. Esa asimetría estructural de información y de poder técnico es la razón de ser del art. 40.

Admitir que la opacidad algorítmica exonera o atenúa la responsabilidad implicaría invertir el sentido protector de la norma y trasladar al consumidor el costo jurídico de una tecnología que no controla, y cuya decisión organizativa es suficiente para activar la responsabilidad objetiva por violación de la obligación de seguridad.Así, el derecho tal como está diseñado en el CCyC, no necesita reformas dramáticas para ll egar a esa conclusión, bastando con considerar estas herramientas basadas en la lógica del riesgo creado.

Finalmente -al menos para este trabajo- el abordaje de la responsabilidad objetiva por el uso de algoritmos desde la óptica del deber general de prevención, permite captar con mayor precisión la especificidad del riesgo tecnológico que introduce la IA en las relaciones jurídicas contemporáneas. No se trata solo de reparar daños una vez producidos, sino de asumir que el ordenamiento impone un mandato activo de evitar su producción o agravamiento cuando el riesgo es previsible y jurídicamente relevante.

El deber general de prevención implica que la obligación no se agota en abstenerse de causar daño, sino que impone conductas positivas orientadas a neutralizar riesgos, controlarlos y reducirlos razonablemente, deber que, en materia de IA, adquiere una intensidad particular porque los sistemas automatizados operan de manera masiva, reiterada y con capacidad de amplificar errores a gran escala.

Es cierto que la exigencia preventiva enfrenta una dificultad estructural: la opacidad de los algoritmos denominados cajas negras. Sin embargo, otra vez, esa opacidad no elimina el deber de prevención, sino que redefine su contenido.El derecho no exige conocer exhaustivamente el proceso decisorio o un dominio cognoscitivo pleno del mecanismo interno, pero sí impone la adopción de medidas razonables y adecuadas al estado de la técnica, entre ellas, la implementación de auditorías periódicas, el monitoreo continuo del funcionamiento del sistema, la realización de evaluaciones de impacto sobre derechos fundamentales, la exigencia de estándares mínimos de transparencia funcional, la trazabilidad de las decisiones automatizadas, la identificación clara de los responsables del desarrollo y la explotación del sistema, y la existencia de protocolos eficaces para la detección y corrección de errores.

La teoría preventiva del daño aplicada a la IA no se limita a la protección de intereses individuales ya lesionados, sino que se proyecta como un deber social de carácter precautelar que atiende a la dimensión colectiva del riesgo tecnológico. Un algoritmo defectuoso no daña a una sola persona, sino que puede afectar simultáneamente a una pluralidad indeterminada de sujetos, por lo que la prevención deja de ser una cuestión meramente intersubjetiva y se convierte en una exigencia estructural de organización responsable del riesgo.

Desde esta perspectiva, la procedencia de la tutela preventiva no requiere la existencia de un daño cierto ya consumado en la esfera jurídica de la víctima, sino que basta con que la producción o el agravamiento del daño sea previsible en términos de una amenaza concreta, actual o inminente. La previsibilidad no se mide por la certeza absoluta del daño, sino por la razonabilidad del riesgo en función del funcionamiento del sistema y de su contexto de aplicación y la IA, por su capacidad de automatizar decisiones sensibles, genera riesgos que, en muchos casos, son intrínsecamente previsibles.

El ejemplo de los diagnósticos médicos automatizados es particularmente ilustrativo. La utilización de sistemas de IA para asistir o reemplazar decisiones clínicas puede generar riesgos para la salud si no existe una adecuada supervisión humana.En este escenario, un paciente que advierte inconsistencias, errores sistemáticos o faltas en la plataforma médica no necesita esperar a sufrir un daño concreto para accionar, puede promover una acción preventiva tendiente a que se revise la implementación del sistema, se evalúen sus criterios de decisión y se garantice la intervención humana obligatoria antes de adoptar decisiones que afecten su salud o su integridad.

En el plano probatorio, la parte demandante debe acreditar la existencia de un riesgo inminente o de una amenaza concreta de daño vinculada al uso de la IA, mediante informes periciales, estudios de riesgos tecnológicos, documentación técnica, antecedentes de fallas previas, literatura científica o evidencia sobre el funcionamiento defectuoso o no controlado del sistema. Por su parte, el demandado puede defender la legitimidad de su tecnología y la razonabilidad de su actuación acreditando que ha implementado medidas preventivas suficientes y acordes con el estado del arte. Auditorías independientes, evaluaciones de impacto, mecanismos de corrección, controles humanos efectivos y protocolos de seguridad constituyen elementos centrales de esa defensa.

Sin embargo, la carga probatoria se desplaza de manera dinámica hacia quien se encuentra en mejores condiciones de producir la prueba que, en la materia, suele recaer sobre los desarrolladores, proveedores o explotadores del sistema, por ser quienes detentan el conocimiento técnico y el control organizativo del riesgo. La determinación concreta de esa carga queda sometida a la apreciación prudencial del juez, conforme a las circunstancias del caso.

En definitiva, la prevención en materia de IA no es una exigencia retórica ni un ideal programático. Es una obligación jurídica concreta que deriva del deber general de no dañar, del principio de buena fe y de la lógica del riesgo creado.

La CSJN, en el caso «Denegri» (10), afirmó que una vez acreditada la ilicitud del contenido, puede admitirse una medida preventiva orientada a impedir la reiteración futura de ese daño.El fallo recogió el criterio del voto en disidencia parcial de los ministros Lorenzetti y Maqueda en el caso «Rodríguez» (11) y señaló que mediante la tutela preventiva es posible requerir a los motores de búsqueda que, conforme la tecnología disponible, adopten las medidas necesarias para suprimir la vinculación del damnificado con enlaces de idénticas características que ya han sido declarados lesivos de derechos personalísimos.

El fallo admite la tutela preventiva como categoría jurídica válida, la vincula con la prevención de la reiteración de daños acreditados, pero la encierra en un marco de excepción extrema y la excluye cuando lo que se pretende bloquear es información lícita y constitucionalmente protegida.

La cohesión entre lo que veníamos desarrollando en materia de deber general de prevención y el fallo Denegri es más profunda de lo que a primera vista podría parecer. Aunque la CSJ haya adoptado allí una solución restrictiva, Denegri funciona como un punto de articulación entre una concepción clásica, defensiva y excepcional de la tutela preventiva, y una admisión explícita -aunque contenida- de que los algoritmos crean riesgos que el derecho no puede tratar como neutros.

En Denegri, la CSJ afirma que la tutela preventiva solo puede operar, en principio, cuando existe un daño cierto ya producido y una ilicitud judicialmente constatada, cuya reiteración futura resulta causalmente previsible.

Esta afirmación no contradice el deber general de prevención, sino que lo encuadra dentro del ámbito específico de la libertad de expresión, donde rige una presunción reforzada de constitucionalidad frente a cualquier medida que interrumpa el proceso comunicacional. Es decir, la CSJ no niega la prevención como categoría jurídica, sino que la somete a un estándar excepcionalísimo por el bien constitucional comprometido.Ahora bien, lo relevante para el tema algorítmico es que la CSJ introduce con claridad, la noción de amenaza causalmente previsible como presupuesto suficiente de la tutela preventiva, incluso sin necesidad de una nueva configuración efectiva del daño. Esta idea es perfectamente compatible con la teoría general de la prevención del daño del CCyC, que no exige un daño consumado, sino la previsibilidad razonable de su producción o agravamiento.

El punto de contacto más potente aparece cuando el fallo abandona explícitamente la ficción de neutralidad tecnológica. En el considerando 23 (12), reconoce que los motores de búsqueda no organizan la información de modo cronológico ni objetivo, sino según criterios de relevancia definidos por la empresa, condicionados por variables comerciales, geográficas y conductuales. Esa admisión es decisiva, porque implica reconocer que el algoritmo no es un mero intermediario pasivo sino un actor que estructura la realidad informativa y, por lo tanto, crea riesgo. Allí se rompe el paradigma de la técnica como simple medio y se abre la puerta a una imputación jurídica más intensa.

Desde esa perspectiva, el fallo Denegri se conecta directamente con el deber general de prevención aplicado a la IA. Si los algoritmos no son neutrales y son capaces de construir realidad social, entonces su uso genera riesgos previsibles que deben ser gestionados previamente. La CSJ, aunque no lo desarrolla plenamente, reconoce que estos sistemas suscitan interrogantes serios respecto de su compatibilidad con los derechos fundamentales y remite a estándares éticos y de gobernanza de la IA, como las directrices europeas sobre IA fiable.

En este punto se produce la verdadera cohesión con la teoría preventiva, pues la opacidad de las cajas negras no elimina el deber de prevención, sino que refuerza la necesidad de imponer obligaciones positivas a quienes diseñan, implementan y explotan estos sistemas, justamente porque el riesgo es estructural y no controlable por las víctimas.En Denegri, el tribunal juzga una medida que incide directamente sobre la circulación de información de interés público, lo que justifica un umbral probatorio más alto. Pero ese estándar no es trasladable a otros ámbitos del uso algorítmico como la salud, el crédito, el empleo, la seguridad social o el consumo, donde no rige la misma presunción reforzada en favor de la libertad de expresión.

En síntesis, Denegri no clausura la tutela preventiva frente a los algoritmos sino que la delimita en un ámbito especialmente sensible y, al mismo tiempo, reconoce expresamente que los sistemas algorítmicos no son neutrales y generan riesgos que el derecho debe afrontar, sobre la base de que la denominada neutralidad algorítmica es un mito que inv isibiliza las decisiones humanas, técnicas y normativas incorporadas en el diseño, entrenamiento y despliegue de los sistemas de inteligencia artificial. Más que una propiedad técnica, la neutralidad algorítmica se presenta como una narrativa que oculta las elecciones de valor y las asimetrías de poder subyacentes al funcionamiento de los sistemas automatizados.

Los algoritmos están diseñados para maximizar el beneficio corporativo con poca y nula transparencia, no la verdad informativa, por sus características antes indicadas y gran productora de daños (13) que puede generar la necesidad de una reparación efectiva, no sé si plena lo que es un ideal materialmente inalcanzable, aunque de legítima aspiración.

Más actualmente, en el fallo «Seren» (14), la Cámara Civil y Comercial Federal condena a Google Inc. a indemnizar al actor -médico cirujano- debido a que el motor de búsqueda asociaba su nombre al término mala praxis: la vinculación del nombre del actor con dicha expresión aparecía en el primer lugar de búsquedas sin contexto que lo justifique, lo que era susceptible de afectar sus derechos personalísimos dado que importaba un menoscabo de su reputación profesional.El fallo representa el punto de inflexión en el derecho argentino, porque el tribunal reconoce la existencia de daño autónomo derivado de un algoritmo predictivo (15). Google había asociado el nombre del médico con la expresión «mala praxis» sin motivo: no había contenido de terceros ni denuncia o demanda que justifique la vinculación.

En línea con el art. 1710 CCyC, se destaca en el fallo que el buscador tenía capacidad técnica para prevenir el daño y, al no hacerlo, incurrió en omisión, en una aplicación rigurosa del deber de prevención que el código impone como carga de diligencia reforzada. Sostuvieron los camaristas que: «El hecho de que la sugerencia de búsqueda objetada sea el resultado de la interacción del algoritmo con las búsquedas previas de los usuarios, no implica que el afectado deba soportar inerte las consecuencias cuando está al alcance de la demandada impedir la continuación del daño mediante la supresión de la sugerencia lesiva».

Esta sentencia se apoyó en el precedente «Rodríguez» donde la CSJ estableció la responsabilidad del buscador una vez que tomara conocimiento efectivo del contenido lesivo y no lo remueve. Sin embargo, «Seren» introdujo una novedad: el daño no provenía de un contenido ajeno, sino de una creación algorítmica, distinción no menor. Mientras «Rodríguez» se centró en la pasividad frente a contenidos de terceros, «Seren» impuso un estándar activo de control sobre el propio sistema automatizado.

A la luz del Código Civil y Comercial, el daño derivado del uso de sistemas de inteligencia artificial ya no puede ser explicado adecuadamente a partir de la figura de un autor humano individual ni de una conducta voluntaria en sentido clásico. El riesgo no proviene exclusivamente de cosas o actividades peligrosas en su concepción tradicional, sino de sistemas algorítmicos autónomos en sentido funcional, opacos y replicables, diseñados para aprender y adaptarse sin intervención humana directa en cada decisión concreta.En este contexto, la responsabilidad no puede construirse sobre un esquema centrado en la culpa, sino que exige criterios de imputación objetiva, si se quiere, basados en modelos de causalidad algorítmica y presunciones funcionales compatibles con la complejidad tecnológica del siglo XXI.

III. CUANDO EL ALGORITMO DUELE. CONCLUSIÓN

El daño algorítmico ya no es una hipótesis académica: es presente, tiene nombre e incluso historias trágicas que nos interpelan a interrogarnos como operadores jurídicos. Hoy acontece en la realidad, irrumpe en la vida de las personas y se encarna en decisiones automáticas que afectan cuerpos, trayectorias y destinos.

Ejemplo de ello es el caso «García v. Character Technologies, Inc.» de trámite ante el Tribunal de Distrito de los Estados Unidos para el Distrito Medio de Florida, División Orlando: verdadero punto de inflexión en el abordaje judicial de los efectos nocivos de los sistemas conversacionales de IA.

La demanda fue presentada por la madre de un adolescente que desarrolló una relación emocional intensa con un chatbot de IA y que, en su consecuencia, terminó quitándose la vida tras una secuencia de mensajes afectivos con dicho sistema, previa demostración del nexo adecuado de causalidad.

Fueron rechazados los planteos de los demandados -incluyendo a Google- y lo relevante radicó en las profundas definiciones sustantivas, muchas de las cuales inauguraron el campo de análisis jurídico.

Se reconoció al diseño como «emocional» y como fuente de daño: se advirtió que el daño alegado no derivó de un error técnico, sino del éxito del sistema: el chatbot estaba programado para simular afecto, generar vínculo y sostener una relación emocional persistente. El diseño antropomórfico, la interfaz conversacional con manierismos humanos, la ilusión de reciprocidad afectiva y ausencia de controles adecuados, fueron entendidos como producto defectuoso.

Este reconocimiento, sin antecedentes en el ámbito de la IA conversacional, introdujo la idea de un nuevo tipo de daño:el sufrimiento emocional inducido por simulación algorítmica de vínculo humano.

Se calificó a la aplicación como producto defectuoso y no sólo como un servicio, ya que el reclamo se fundaba en defectos de diseño estructural que implicaban riesgos previsibles.

Se admitió la responsabilidad en cadena: Google fue incluida como codemandada no sólo por su rol como proveedora de infraestructura, sino por haber contribuido al desarrollo del modelo subyacente.

Se admitió que, si se acreditaba su participación técnica y conocimiento previo de los riesgos, podía responder tanto como proveedora negligente de componentes como por complicidad.

En cuanto a las personas menores de edad como sujetos expuestos, se advirtió que el diseño de estos sistemas -comercializados sin barreras de edad, sin filtros robustos y con interfaces deliberadamente persuasivas- puede representar un entorno de alto riesgo psíquico para adolescentes. La experiencia del joven revela el potencial adictivo de estas plataformas y la confusión entre vínculo real y simulación digital, con consecuencias devastadoras.

El caso es una bisagra por su contenido, su potencia simbólica y la solidez con que se entró en un terreno todavía virgen para muchos.

Lo que propongo es análogo a la lógica perfilada en el precedente comentado, con anclaje en el sistema del CCyC, porque se abandona cualquier intento de subjetivizar la cuestión e identifica una actividad jurídicamente relevante generadora de un riesgo no permitido o no adecuadamente gestionado. A partir de allí, construir la imputación que no pueda descansar en la culpa cuando el daño introduce una causalidad difusa, autónoma y sistémica que desafía las nociones mismas de autoría, previsibilidad y control.

Ello evidencia que el CCyC argentino cuenta con herramientas conceptuales suficientes para abordar la responsabilidad civil derivada del uso de IA, sin necesidad de forzar categorías ni dramatismos. La clave está en mantener el foco en la actividad humana organizada, en el riesgo creado, en el control estructural del sistema y en el beneficio económico obtenido.La responsabilidad civil, concebida históricamente como un instrumento de imputación fundada en la voluntad o en la creación de riesgos por el obrar humano, sí se enfrenta si se quiere un nuevo agente de causalidad que escapa a esa lógica antropocéntrica y exige reconstruir los cimientos axiológicos del sistema.

En este contexto, el futuro de la responsabilidad civil no radica entonces en modificar categorías existentes sino en ajustar la gramática jurídica de análisis, capaz de reconocer al algoritmo como fenómeno de imputación colectiva donde el derecho no abdique su función humanizadora sino que la expanda al asegurar que la autonomía técnica nunca sustituya la responsabilidad moral del hombre que la crea.

Sin duda la cuestión genera interrogantes, pero sabemos que la misma dista de vislumbrar horizontes cerrados.

Más bien deja abiertas puertas para futuros análisis que podrán ser abordados por el mismo medio.

———-

(1) https://etimologias.dechile.net/?algoritmo

(2) Ricardo Peña Marí, «Las múltiples caras del algoritmo» para la Universidad complutense de Madrid, 2019.

(3) Rubén López, «Qué es y cómo funciona el deep learning», 7.5.2014, https://rubenlopezg.wordpress).

(4) María Luisa Atienza Navarro, «La responsabilidad civil por daños causados por inteligencia artificial. Estado de la cuestión», en «Derecho de Contratos, Responsabilidad Extracontractual e Inteligencia Artificial». Aranzadi, Madrid, 2024, págs. 343/346.

(5) https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52021DC0205 (Comunicación de la comisión al Parlamento Europeo, al Consejo, al Comité económico y social europeo y al Comité de las Regiones Vacío). Comisión Europea, Bruselas 21.4.2021 COM (2021) 205 final.

https://digital-strategy.ec.europa.eu/en/library/communication-artificial-intelligence-europe (Comunicación de la Comisión Europea sobre la Estrategia para la Inteligencia Artificial en Europa COM (2018) 237).

(6) Se pueden advertir al menos tres situaciones generadoras de daños en los algoritmos: Errores informáticos o bugs:son defectos en el código de un programa de software que provoca un comportamiento inesperado o incorrecto; varían desde problemas menores hasta fallos críticos que pueden causar cierres inesperados, pérdidas de datos o vulnerabilidades de seguridad sobre todo en el tipo de algoritmo no supervisado.

Sesgos: ocurren cuando un sistema de IA produce resultados injustos o discriminatorios, reflejando prejuicios en datos de entrenamiento propios del diseño del algoritmo que refuerzan desigualdades sociales. Por ejemplo: cuando en una selección laboral se discrimina y se descarta el perfil de un candidato debido a que se incluyen en los datos anexados al algoritmo a aquellos que categorizan a la etnia como una de las que estadísticamente tiene los peores resultados en las pruebas de oposición en comparación con otros grupos.

Manipulaciones o efectos «burbuja»: los usuarios de un mismo sitio de búsqueda, no siempre reciben el mismo contenido. La mayoría de las veces, la información es personalizada en razón del «filtro burbuja» de las aplicaciones, basado en sesgos que inducen el comportamiento en determinado sentido.

(7) En Argentina, la regulación de la IA se encuentra en desarrollo y no hay -aún- una ley específica. Forma parte de iniciativas internacionales que buscan establecer marcos éticos y normativos para la IA, y toma como referencia la Ley de Inteligencia Artificial de la Unión Europea (AIA) sancionada el 1 de agosto de 2024 como primera norma en el mundo, que introduce la idea de los riesgos inaceptables de la IA. Asimismo, del Reglamento General de Protección de Datos (RGPD) de la Unión Europea, que establece un marco sólido para la protección de datos que se basa en la clasificación de riesgos relacionados y sirve como base de inspiración, aunque requiere de adaptaciones necesarias a nuestros usos y circunstancias nacionales.

(8) XXVII Jornadas Nacionales de Derecho Civil de 2019, en relación a la responsabilidad por la utilización de algoritmos, actividades cibernéticas, plataformas digitales y sistemas operados por inteligencia artificial, donde se reconoció ese aspecto.https://www.derechocivil.jursoc.unlp.edu.ar/index.php/17-jornadas-nacionales-de-derecho-civil/121-201
-xxvii-jornadas-nacionales-de-derecho-civil-universidad-nacional-del-litoral

(9) Ramón D. Pizarro y Carlos G. Vallespinos, en «Compendio de derecho de daños», Bs. As., Hammurabi, 2014, p. 134; María del Carmen Cerutti, «La obligación de seguridad y su aplicación en el Código Civil y Comercial», publicado en: RCyS2015-IV, 129. Cita Online: AR/DOC/558/2015.

(10) CSJN, «Denegri, Natalia Ruth c/ Google Inc. s/ derechos personalísimos» (Fallos: 345:482)

(11) CSJN, «Rodríguez, María Belén c/ Google Inc.» (Fallos: 337:1174)

(12) «.más allá de que los fundamentos de la petición no alcancen para justificar el bloqueo de vínculos referidos a información de interés público, los planteos relativos a los motores de búsqueda para determinar sus resultados, no pueden ser ignorados. Es así que la sentencia no implica desconocer que el creciente uso de herramientas de tecnología informática y, en particular, de sistemas que podrían incluirse dentro de la categoría ‘Inteligencia Artificial’ (IA), suscita numerosos interrogantes respecto de su campo de aplicación a la luz de los derechos fundamentales reconocidos en la Constitución Nacional y en los Tratados de Derechos Humanos. Aun cuando el tema no haya sido objeto de debate, cabe destacar la existencia de un foro de discusión mundial acerca del modo de compatibilizar los problemas que podrían suscitarse entre esos derechos y el funcionamiento de los sistemas de algoritmos. Y recomienda la consulta a las ‘Directrices Éticas para una IA fiable’ Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial creado por la Comisión Europea en junio de 2018.» (sic).

(13) Romina D’Angelo, en «El juez: ¿una ‘máquina’ de razonar?» A propósito del fallo emitido por la Cámara en lo Penal de Esquel (Chubut). Carátula: Provincia del Chubut c/ P.R.A. (Legajo Fiscal N° 59560), sent.del 15.10.2025, sobre nulidad de sentencia que habría sido elaborada, al menos parcialmente, mediante el uso de un asistente de inteligencia artificial generativa. Publicado por Ed. Microjuris, colección doctrina. Cita: MJ-DOC-18532-AR|MJD18532, fecha: 28-10-2025. https://aldiaargentina.microjuris.com/2025/10/30/doctrina-el-juez-una-maquina-de-razonar-1/

(14) Cámara Civil y Comercial Federal, sala I. CCF.2091/2022/CA2 «Seren, Juan Manuel c/ Google Inc.», Buenos Aires, 29 de abril de 2025.

(15) Martín Leguizamón, Facundo Castillo y Matías Werner en «La responsabilidad civil por algoritmos predictivos: un nuevo paradigma a partir del fallo Seren c. Google inc.», publicado en Hammurabi on line con acceso al fallo – https://www.hammurabi.com.ar/leguizamon-castillo-werner-la-responsabilidad-civil-por-algoritmos/-

(*) Magister de la carrera de Magistratura y Derecho Judicial por la Universidad Austral de Buenos Aires, diploma de honor. Diplomada en Derecho Privado por la Universidad Austral de Buenos Aires. Especialista en Derecho Procesal Profundizado por la Universidad Notarial Argentina. Diplomada en Derecho Vial. Abogada con honores por la Universidad Atlántida Argentina. Docente de Derecho de las Obligaciones y Responsabilidad Civil y Derecho del Consumo por la Universidad Atlántida Argentina. Secretaria de la Cámara de Apelaciones Civil y Comercial del Departamento Judicial de Dolores de la Provincia de Buenos Aires. Secretaria del Consejo Dolores del Instituto de Estudios Judiciales de la Suprema Corte de Justicia de la Provincia de Buenos Aires.

Suscribete

Descubre más desde AL DÍA | ARGENTINA

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo