#Actualidad Primera demanda que apunta a CHATGPT como abogado sin licencia: ¿Quién responde cuando la IA da consejos legales y se equivoca?

Aún no estás suscripto a Microjuris? Ingresá aquí.


Gonzalo Fuentes y Arballo

El pasado 4 de marzo de 2026, la aseguradora Nippon Life Insurance Company of America presentó una demanda en el Tribunal Federal del Distrito Norte de Illinois —con sede en Chicago, Estados Unidos— contra OpenAI Foundation y OpenAI Group PBC, los responsables de ChatGPT. El caso es considerado tal vez como el primero en señalar directamente a una empresa desarrolladora de inteligencia artificial por ejercicio ilegal de la abogacía a través de un chatbot de uso masivo.
El origen del conflicto es relativamente sencillo. Graciela Dela Torre, empleada de una empresa de logística asegurada por Nippon Life, había iniciado en 2019 un reclamo por incapacidad laboral. El litigio se resolvió en enero de 2024 mediante un acuerdo con renuncia expresa a futuras acciones por parte de la actora.
Tiempo después, disconforme con lo acordado, Dela Torre consultó a su abogado sobre la posibilidad de reabrir el caso; este le explicó que el acuerdo era definitivo.
Entonces, según la demanda, la reclamante, subió la correspondencia de su letrado a ChatGPT y le preguntó si la estaban engañando.

1 El chatbot validó sus sospechas, la alentó a despedir a su abogado y le proporcionó investigación jurídica, argumentos, y borradores de escritos para intentar reabrir el expediente cerrado. Es precisamente en ese punto donde Nippon Life ubica el nudo del problema: en Illinois —como en la gran mayoría de los estados de EE.UU.— el ejercicio de la abogacía sin licencia2 está prohibido por ley. La distinción tradicional separa la provisión de información legal general —que cualquiera puede brindar— del asesoramiento jurídico dirigido a una situación concreta de una persona específica, que requiere matrícula profesional. Nippon Life sostiene que ChatGPT no se limitó a informar: analizó el caso particular de Dela Torre, cuestionó la conducta de su abogado y le indicó cómo actuar. Eso es ejercer la abogacía.
En lo que hace al reclamo de la Sra. Dela Torre un juez rechazó la petición de reapertura en febrero de 2025. Lejos de detenerse, inició una nueva demanda y presentó decenas de escritos —21 mociones, una citación y ocho notificaciones— todos generados con ayuda de ChatGPT.
Nippon Life sostiene que contestar esos nuevos reclamos le costó cerca de 300.000 dólares en honorarios legales. La aseguradora reclama esa suma como daño compensatorio, más 10 millones en daños punitivos, y pide que un tribunal declare que ChatGPT ejerció la abogacía sin licencia en Illinois.
En lo que hace a OpenAI la compañía también actualizó sus políticas en octubre de 2024 para prohibir expresamente el uso del sistema con fines de asesoramiento legal; Nippon argumenta que esa modificación tardía demuestra que el riesgo era previsible.
Lo que está en juego El caso Nippon Life v. OpenAI no es, en el fondo, un problema de alucinaciones o errores del sistema. Es un problema de diseño y de arquitectura. ChatGPT.
No se trata de que la IA haya «inventado» el derecho: se trata de que un sistema de uso masivo tomó una situación jurídica concreta, le asignó una conclusión personalizada y orientó la conducta de una persona en un litigio real.
Eso es, exactamente, lo que las normas de ejercicio no autorizado de la abogacía buscan prevenir: no el error técnico, sino la sustitución del criterio profesional por un sistema que no tiene licencia, no tiene responsabilidad y no conoce las circunstancias reales del expediente.
Hasta ahora, cuando la IA fallaba en sede judicial, la sanción recaía sobre el abogado que había presentado el escrito, en definitiva es el letrado quien responde por no verificar lo que firma, aunque lo haya generado una máquina.
En este reciente caso se persigue responsabilizar al fabricante de la herramienta. Si prospera forzará a los tribunales y reguladores a definir qué protecciones arquitectónicas debe tener un sistema de IA para no cruzar la línea entre información legal y ejercicio profesional.
Esa distinción no puede seguir dependiendo de los términos y condiciones de uso que impone una empresa, requiere salvaguardas estructurales que garantice estándares de seguridad mínimos al consumidor, posiblemente este caso sea un peldaño en ese sentido.

1 “Que las tácticas empleadas en la respuesta de Probst -abogado de DelaCosta- constituían gaslighting y tenían como objetivo manipular emocionalmente a Dela Torre.”Case: 1:26-cv-02448. p.20.UNITED STATES DISTRICT COURT NORTHERN DISTRICT OF ILLINOIS
2 unauthorized practice of law o UPL

https://orcid.org/0009-0006-2461-8288 gonzalo@fuentesyarballo.com.ar

Accedé a la demanda

Suscribete

Descubre más desde AL DÍA | ARGENTINA

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo