#Doctrina Don’t Trust, Verify: El error humano como fuente de la responsabilidad en el uso de inteligencia artificial generativa

Aún no estás suscripto a Microjuris? Ingresá aquí.


Autor: Candia, Alexis

Fecha: 17-11-2025

Colección: Doctrina

Cita: MJ-DOC-18562-AR||MJD18562

Voces: INTELIGENCIA ARTIFICIAL – DEBIDO PROCESO – ABOGADOS – ÉTICA PROFESIONAL – TECNOLOGIA

Sumario:
I. Introducción: El error humano como fuente de la responsabilidad. II. Jurisprudencia: De la confianza ciega al error humano. III. El principio ‘Don’t Trust, Verify’: Su origen y utilidad para el Derecho. IV. Conclusiones.

Doctrina:
Por Alexis Candia (*)

I. INTRODUCCIÓN: EL ERROR HUMANO COMO FUENTE DE LA RESPONSABILIDAD

La inteligencia artificial generativa, con herramientas como ChatGPT, Gemini o Copilot, ha irrumpido en el ámbito legal siendo utilizadas por los abogados para mejorar la redacción de sus documentos, la investigación y el análisis de sus casos. Si bien esto suena interesante, su rápida adopción no ha estado exenta de riesgos.

Tanto la jurisprudencia nacional como internacional han detectado y remarcado la incorrecta utilización de estas herramientas. La presentación de escritos que contenían información errónea y jurisprudencia inexistente por alucinaciones de la inteligencia artificial se ha traducido en los Juzgados en llamados de atención por falta de ética profesional, notificaciones a los Colegios de Abogados, multas a los letrados y pérdida de litigios.

Ante el aumento de estos casos, en este artículo no pretendo analizar cada uno en particular. Más bien, buscaré trazar un paralelismo que puede resultar de utilidad y profundizar en un principio conocido en el mundo de la ciberseguridad, el cual considero una herramienta fundamental para concientizar sobre el correcto uso de la inteligencia artificial en la Justicia. De esta manera, se podrá mitigar uno de los principales problemas que enfrenta hoy la relación entre el Derecho y la tecnología: la negligencia de los abogados que utilizan inteligencia artificial para fundamentar sus escritos sin verificar los outputs obtenidos.

En definitiva, los riesgos derivados del uso de la inteligencia artificial no son tecnológicos, sino humanos: la herramienta no se equivoca por sí misma, sino cuando el profesional la utiliza sin el debido control ni criterio jurídico. La responsabilidad, por tanto, no radica en el sistema, sino en quien confía ciegamente en él.

En este artículo analizaré cómo el principio ‘Don’t Trust, Verify’ (No confíes, verifica) se relaciona con el Derecho y por qué debe ser adoptado en la vida digital de los abogados y personal de Justicia.

II. JURISPRUDENCIA:DE LA CONFIANZA CIEGA AL ERROR HUMANO

Con base en la jurisprudencia existente, dejaré evidenciado cómo el error humano de no verificar lo que la IA arroja se hizo presente en cada caso. En mi opinión, y adelantando algunas conclusiones, en esta etapa inicial de la integración de la inteligencia artificial al Derecho, resulta esencial reforzar la educación tecnológica de los operadores jurídicos. Muchos profesionales, por su formación, edad o cualquier otra razón, carecen del dominio adecuado de las herramientas digitales emergentes. Este conocimiento es imprescindible en un mundo cada vez más interconectado, no solo para prevenir riesgos, sino también para integrar la tecnología de forma responsable al ejercicio profesional y garantizar la debida diligencia.

A continuación, y al simple hecho de mencionar los casos que motivaron este artículo, se presentan dos tablas con: a) la Jurisprudencia de Estados Unidos y; b) la Jurisprudencia de Argentina.

a. Jurisprudencia en Estados Unidos:

b. Jurisprudencia en Argentina:

Analizando la jurisprudencia citada, podemos ver una constante: los errores no provienen de la inteligencia artificial en sí, sino del uso sin control que los profesionales hacen de ella. Las herramientas generativas no actúan de forma autónoma en los procesos judiciales, sino que es el operador jurídico quien decide hacer uso de ellas, integrarlas a su flujo de trabajo, confiar en su resultado y, en última instancia, firmar bajo su responsabilidad.

Los casos mencionados confirman que la omisión de verificar los fallos e información citada constituye una falta de diligencia que responsabiliza al profesional. Se trata, por tanto, de errores humanos y no técnicos.

Así, la jurisprudencia demuestra una verdad incómoda pero necesaria: el riesgo no está en la tecnología, sino en el uso sin control que se hace de ella. A partir de esta premisa, desarrollaré un principio originado en el mundo de la ciberseguridad, pero útil y cada vez más necesario en el ámbito jurídico: «Don´t Trust, Verify» (No confíes, verifica).

III.EL PRINCIPIO ´DON´T TRUST, VERIFY´: SU ORIGEN Y UTILIDAD PARA EL DERECHO

A los efectos de una mejor comprensión de esta idea, este apartado se desarrollará en dos partes: primero, se analizará cómo este principio se aplica en el mundo de la ciberseguridad; y segundo, cómo puede ser útil en el ámbito del Derecho.

a. Origen tecnológico: El modelo ´Zero Trust´ (Confianza Cero).

El surgimiento y la adopción del principio Don’t Trust, Verify o, en su formulación más estricta, Never Trust, Always Verify (Nunca confíes, siempre verifica), en el campo de la ciberseguridad representa una revolución paradigmática en la gestión del riesgo digital (11). Nacida de la necesidad de proteger sistemas informáticos complejos contra amenazas internas y externas, ofrece un marco de prudencia y responsabilidad directamente aplicable al ejercicio profesional del Derecho, especialmente frente a la inteligencia artificial generativa. El principio Don’t Trust, Verify se consolida dentro del modelo de ciberseguridad conocido como Zero Trust (Confianza Cero) (12). Este modelo surge en el año 2010 gracias a John Kindervag (13), como respuesta a la insuficiencia del enfoque tradicional de seguridad de ese momento, basado en el concepto de ´castillo y foso´ (castle-and-moat). En ese modelo, una vez que un usuario o dispositivo superaba la barrera externa (el firewall o ´perímetro´), se le otorgaba confianza implícita y acceso libre a los recursos internos de la red (14). Sin embargo, con los avances de la tecnología, como la expansión de la computación en la nube, el trabajo remoto y la complejidad de las redes modernas, se hizo evidente que la forma de proteger los sistemas e información no era fiable y se necesite un enfoque de verificación más intensivo. La principal vulnerabilidad del modelo tradicional residía en que, una vez violado el perímetro (a menudo mediante credenciales robadas), los atacantes podían moverse sin control dentro de la red, explotando esa confianza implícita. (15)

El modelo Zero Trust elimina esta confianza por defecto.Su premisa fundamental es que ningún usuario, dispositivo, ni conexión es fiable por defecto, ya sea que se encuentre dentro o fuera del perímetro de la red (16). Este enfoque asume la violación de los sistemas (assume breach) como una posibilidad constante (17). Para eso, cada solicitud de acceso a un recurso, sin importar su origen, debe ser verificada y autenticada continuamente en tiempo real (18).

El modelo exige la verificación continua de la identidad del usuario y del dispositivo, sus privilegios de acceso y el estado de la conexión. Se aplica el principio del privilegio mínimo, concediendo solo el nivel de permiso estrictamente necesario para completar una tarea. Esta supervisión constante reduce la superficie de ataque y limita la capacidad de los ciberdelincuentes para propagarse, minimizando el daño en caso de una brecha de seguridad (19).

En esencia, Zero Trust (Confianza Cero) y su máxima Don’t Trust, Verify (No confíes, verifica) no promueven una desconfianza generalizada, sino la evolución de la confianza implícita hacia una cultura de comprobación constante y verificada.

b. Aplicación al Derecho: La diligencia profesional ante la inteligencia artificial generativa.

La lógica de la ´confianza cero´ es altamente aplicable para mitigar el riesgo de error humano en el ejercicio profesional del Derecho, especialmente cuando se integra la inteligencia artificial generativa en las tareas diarias para la redacción de escritos o la emisión de dictámenes.

La principal amenaza del uso de IA no es la intención maliciosa, sino el fenómeno de las ´alucinaciones´. Las alucinaciones son resultados incorrectos, engañosos, sin sentido o que simplemente fabrican información (incluyendo citas o referencias a leyes inexistentes) sin basarse en los datos de entrenamiento (20). Estos errores pueden ser causados por datos de entrenamiento incompletos, sesgos, o la incapacidad del modelo para fundamentar correctamente el conocimiento del mundo real (21). Si un modelo de inteligencia artificial, incluso en las mejores circunstancias, puede generar consecuencias no deseadas e información inexacta, el abogado debe adoptar el mismo escepticismo fundamental que el modelo de confianza cero.Trasladar la lógica del ´Don’t Trust, Verify´ al ámbito jurídico implica que el abogado debe asumir que la información generada por la inteligencia artificial es potencialmente falsa o inexacta, hasta que compruebe su veracidad en otra fuente -por ejemplo, consultando la existencia de un fallo en los buscadores de jurisprudencia de la Corte-.

Esta práctica constituye un nuevo estándar de diligencia profesional y ética, indispensable al incorporar contenido de inteligencia artificial generativa a documentos legales formales. El profesional del Derecho está obligado a verificar la exactitud y relevancia de la información antes de incorporarla.

Don’t Trust, Verify funciona como un análogo moderno del deber de verificación de fuentes. Si en ciberseguridad la supervisión humana es la última línea de defensa para validar y corregir la información generada por la IA, en el ámbito legal, esta supervisión se convierte en un mandato ético para asegurar la calidad y la veracidad del trabajo.

En conclusión, así como la ciberseguridad ha evolucionado de la confianza implícita en el perímetro a la confianza verificada en cada acceso, el Derecho debe realizar una transición similar. El principio Don’t Trust, Verify se reinterpreta entonces como un principio de precaución, verificación rigurosa y responsabilidad profesional, demostrando que la inteligencia artificial es un asistente valioso, pero su output siempre está sujeto a la validación experta del abogado.

IV. CONCLUSIONES

La inteligencia artificial dejó de ser una promesa del futuro para c onvertirse en una herramienta cotidiana que está redefiniendo la práctica jurídica. Sin embargo, su verdadero valor no reside únicamente en su potencial tecnológico, sino en la forma en que los profesionales del derecho decidan incorporarla en su trabajo diario. Con este artículo busqué generar conciencia sobre la importancia de un uso ético, crítico y responsable de la inteligencia artificial en el ámbito legal.

Considero que la educación es el punto de partida de todo cambio sostenible.A través de la formación continua y la alfabetización digital podremos garantizar que los abogados comprendan tanto las ventajas como las limitaciones de estas herramientas. En este sentido, tanto el Poder Judicial como los Colegios de Abogados tienen la oportunidad, las herramientas y la llegada para liderar este proceso de concientización mediante, por ejemplo, talleres, cursos, campañas en redes y espacios de reflexión que promuevan las buenas prácticas tecnológicas.

A mi modo de ver, el desafío no es tecnológico sino humano. Herramientas como ChatGPT pueden ayudar a optimizar procesos, buscar fallos y mejorar la redacción de un escrito, pero nunca reemplazarán el juicio profesional, la empatía y la responsabilidad que sustentan el trabajo jurídico. La supervisión humana sigue siendo esencial para garantizar precisión, prevenir sesgos y resguardar la confianza pública en el sistema judicial.

La verdadera innovación legal no está en usar inteligencia artificial, sino en cómo se la integra estratégicamente para potenciar la labor jurídica. Como expresé en mi artículo «ChatGPT vs. Grok: El veredicto de la IA para profesionales del derecho» (22), la inteligencia artificial no es más que ceros y unos siguiendo una serie de patrones que se le indicaron. Lo verdaderamente transformador es el criterio, la ética y la visión de quien decide cómo y para qué usarlos.

Porque el futuro del derecho no será escrito por las máquinas, sino por los profesionales que aprendan a convertir la tecnología en una extensión de su pensamiento crítico y su compromiso con la justicia.

———–

(1) Mata v. Avianca Inc., No. 22-cv-01461 (PKC) (S.D.N.Y. Jun. 22, 2023). Recuperado el 1 de noviembre de 2025, de https://caselaw.findlaw.com/court/us-dis-crt-sd-new-yor/2335142.html

(2) Gauthier v. Goodyear Tire & Rubber Co. (Mem. & Order, No. 1:23-cv-00281 (E.D. Tex. Dec. 18, 2024)). Recuperado de https://law.justia.com/cases/federal/district-courts/texas/txedce/1%3A2023cv00281/223848/53/

(3) Mattox v. Product Innovations Research, LLC, No.6:24-cv-235-JAR (E.D. Okla. Oct. 22, 2025). Recuperado de https://websitedc.s3.amazonaws.com/documents/Mattox_v._Product_Innovations_Research_USA_22_October_2025.pdf
/>
(4) Green Building Initiative, Inc. v. Stephen R. Peacock & Green Globe Limited, No. 3:24-cv-00298-SI (D. Or. Oct. 27, 2025). Recuperado de https://websitedc.s3.amazonaws.com/documents/Green_Building_Initiative_v._Stephen_Peacock_USA_27_October_2025
pdf

(5) Mezu v. Mezu, No. 361, September Term, 2025 (Md. Ct. Spec. App. Oct. 29, 2025). Recuperado de https://www.mdcourts.gov/data/opinions/cosa/2025/0361s25.pdf

(6) Wilson v. KIPP Texas Inc., No. 3:24-cv]02578-K (N.D. Tex. Oct. 29, 2025). Recuperado de https://law.justia.com/cases/federal/district-courts/texas/txndce/3:2024cv02578/395701/53/

(7) Giacomino, C. A. y otros v. Monserrat, F. D. y otros s/ danos y perjuicios (Camara de Apelacion en lo Civil y Comercial de Rosario, Sala II, autos n.o CUIJ 21-11893083-2, agosto 2025). Recuperado de https://sipla.ip.mpg.de/fileadmin/Files/Files/Giacomino_c._Monserrat.pdf

(8) Microjuris al Dia Argentina. (2025, 30 de septiembre). #Fallos La IA en el proceso: Se recomienda a un abogado corroborar las citas o resenas de fallos de sus presentaciones y en su caso adoptar un uso etico y responsable de las herramientas de IA. Recuperado de https://aldiaargentina.microjuris.com/2025/09/30/fallos-la-ia-en-el-proceso-se-recomienda-a-un-abogado-corrob
rar-las-citas-o-resenas-de-fallos-de-sus-presentaciones-y-en-su-caso-adoptar-un-uso-etico-y-responsable-de-la
-herramientas-de-ia/

(9) Acevedo Gerardo Gabriel c/ Caceres Mareco Willian Arsenio y Agrosalta Cooperativa de Seguros Limitada s/ danos y perjuicios autom. c/les. o muerte (Camara de Apelacion en lo Civil y Comercial de Moron, Sala I, Causa N.o 19.435, 2025, 3 febrero). Recuperado de https://www.scba.gov.ar/includes/descarga.asp?id=57443&n=Ver%20sentencia%20(causa%2019.435).pdf

(10) Provincia del Chubut c/ P.R.A. (Carp. OFIJU NIC n.o 6209 . Leg.Fiscal n.o 59560, 2025, 15 de octubre). Camara en lo Penal de la Circunscripcion Judicial del Noroeste del Chubut. Recuperado de https://websitedc.s3.amazonaws.com/documents/wp-1760559941807.pdf

(11) IBM. (s. f.). Zero trust. IBM Think. Recuperado el 2 de noviembre de 2025, de https://www.ibm.com/es-es/think/topics/zero-trust

(12) Kerman, A. (2020, 28 de octubre). Zero trust cybersecurity: ‘Never trust, always verify’. National Institute of Standards and Technology (NIST). Recuperado el 2 de noviembre de 2025, de https://www.nist.gov/blogs/taking-measure/zero-trust-cybersecurity-never-trust-always-verify

(13) Illumio. (s. f.). John Kindervag shares Zero Trust’s origin story. Recuperado el 2 de noviembre de 2025, de https://www-illumio-com.translate.goog/blog/john-kindervag-shares-zero-trusts-origin-story?_x_tr_sl=en&_x_tr_
l=es&_x_tr_hl=es&_x_tr_pto=tc

(14) Cloudflare Inc. (s. f.). Zero Trust security | What is a Zero Trust network? Recuperado el 2 de noviembre de 2025, de https://www.cloudflare.com/learning/security/glossary/what-is-zero-trust/

(15) Kerman, A. (2020, 28 de octubre). Zero trust cybersecurity: ‘Never trust, always verify’. National Institute of Standards and Technology (NIST). Recuperado el 2 de noviembre de 2025, de https://www.nist.gov/blogs/taking-measure/zero-trust-cybersecurity-never-trust-always-verify

(16) Cloudflare Inc. (s. f.). Zero Trust security | What is a Zero Trust network? Recuperado el 2 de noviembre de 2025, de https://www.cloudflare.com/learning/security/glossary/what-is-zero-trust/

(17) IBM. (s. f.). Zero trust. IBM Think. Recuperado el 2 de noviembre de 2025, de https://www.ibm.com/es-es/think/topics/zero-trust

(18) Kerman, A. (2020, 28 de octubre). Zero trust cybersecurity: ‘Never trust, always verify’. National Institute of Standards and Technology (NIST). Recuperado el 2 de noviembre de 2025, de https://www.nist.gov/blogs/taking-measure/zero-trust-cybersecurity-never-trust-always-verify

(19) Cloudflare Inc. (s. f.). Zero Trust security | What is a Zero Trust network?Recuperado el 2 de noviembre de 2025, de https://www.cloudflare.com/learning/security/glossary/what-is-zero-trust/

(20) IBM. (s. f.). ¿Qué son las alucinaciones de IA? Recuperado el 2 de noviembre de 2025, de https://www.ibm.com/es-es/think/topics/ai-hallucinations

(21) Google Cloud. (s. f.). ¿Qué son las alucinaciones de la IA? Recuperado el 2 de noviembre de 2025, de https://cloud.google.com/discover/what-are-ai-hallucinations?hl=es-419

(22) Candia, A. (2025, 31 de octubre). ChatGPT vs. Grok: El veredicto de la IA para profesionales del derecho. [Publicación en LinkedIn]. LinkedIn. Recuperado de https://www.linkedin.com/posts/candialexis_el-veredicto-de-la-ia-para-profesionales-activity-7316463757814054
13-uWuJ

(*) Abogado por la Universidad Nacional del Centro de la Provincia de Buenos Aires (UNICEN), posgrado en Compliance Integral y diplomado en Compliance enfocado en la Ciberseguridad, ambos por Governance School de la Universidad del Museo Social Argentino (UMSA). Analista de riesgo digital e impulsor de una cultura digital responsable. Speaker en la ONG Bitcoin Argentina. LinkedIn: Alexis Candia.

Suscribete

Descubre más desde AL DÍA | ARGENTINA

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo