#Doctrina El impacto de la IA Generativa y la IA Agéntica en la responsabilidad profesional en el ejercicio de la abogacía: «Cuando la limosna es grande, hasta el santo desconfía»

Aún no estás suscripto a Microjuris? Ingresá aquí.


Autor: Faliero, Johanna C.

Fecha: 25-06-2025

Colección: Doctrina

Cita: MJ-DOC-18337-AR||MJD18337

Voces: RESPONSABILIDAD PROFESIONAL – PROFESIONAL – ABOGADOS – INTELIGENCIA ARTIFICIAL

Sumario:
I. Introducción. II. El impacto de la IA Generativa y Agéntica en la responsabilidad profesional en el ejercicio de la abogacía: «Cuando la limosna es grande, hasta el santo desconfía». III. Reflexión final: La delegación y externalización cognitiva.

Doctrina:
Por Johanna C. Faliero (*)

I. INTRODUCCIÓN

Mucho se ha dicho ya respecto del avance exponencial de la tecnología y de la necesidad del derecho de acelerar su paso para emparejarse con ella, dada la visión siempre historicista de nuestra disciplina y de su propia lentitud operativa.

La idea que ha calado profundo en los cimientos del imaginario social de que el derecho siempre iba detrás de los hechos, ha servido como una rajadura absolutamente elemental y capital para la filtración que se señalará a continuación.

La emergencia de la inteligencia artificial generativa / IA Generativa / IAGen / gen AI / Gen AI, la rápida introducción de la IA Agéntica / Agentes IA Autónomos / Agentic AI y la evangelización inflamada sobre estas como herramientas revolucionarias para el ejercicio profesional del derecho ha inundado e infectado todos los entornos profesionales, la academia, y hasta los entornos propios de los colegios profesionales de todas partes del país, donde se procura que cada vez más y más letrados se sumen a la mentada ola de la IA.

Ahora bien, cabe preguntarnos, ¿qué es lo que en definitiva se busca con ello?, recordando una máxima sacramental consumeril y popularmente difundida, que «cuando algo es gratis, el producto eres tú».

II. EL IMPACTO DE LA IA GENERATIVA Y AGÉNTICA EN LA RESPONSABILIDAD PROFESIONAL EN EL EJERCICIO DE LA ABOGACÍA: «CUANDO LA LIMOSNA ES GRANDE, HASTA EL SANTO DESCONFÍA»

La irrupción de la inteligencia artificial y su utilización descuidada e indiscriminada en el ámbito jurídico plantea una serie de tensiones que no pueden ser ignoradas.Los impactos de la IA en el ejercicio profesional del derecho no pueden ser subestimados en sus dimensiones éticas, técnicas y jurídicas, en las que los bienes jurídicos arrollados son la ciberseguridad, privacidad y la autodeterminación informativa (1).

La dependencia algorítmica (2), cada vez más presente en el ejercicio profesional del derecho, plantea riesgos significativos, como el sesgo y la discriminación algorítmica, que no solo afectan la calidad de las decisiones jurídicas, sino que ponen en peligro la integridad de todo el sistema jurídico y judicial, en cuanto a su seguridad jurídica (3).

El uso de algoritmos sin ética puede causar daños irreversibles y aunque la ética de datos siempre haya sido un componente esencial de su protección, no basta para garantizar la protección de los derechos en ciernes, lo mismo para el «uso ético y responsable» que tanto se esgrime como solución. La proliferación en la industria de la IA de prácticas como el «data ethics washing» y el «AI washing» evidencia la necesidad de una regulación más estricta y transparente, con exigencias normativas puntuales y con un sistema sancionatorio que se aplique efectivamente (4).

La mercadotecnia agresiva en torno a la IA, que busca atraer inversores, ha generado una industria que prioriza los beneficios económicos sobre los principios éticos.Y esa mercadotecnia infecciosa ha llegado en la búsqueda de nuevos clientes y víctimas al derecho, a los foros legales, jurídicos, judiciales y académicos.

La inteligencia artificial generativa / IA Generativa / IAGen / gen AI y ahora la IA Agéntica / Agentes IA Autónomos / Agentic AI necesitan más consumidores activos para seguir expandiendo su negocio, en los cuales generar una dependencia que luego se transforme en una necesidad profesional de la cual no puedan escapar.

En la actualidad como todos pueden haber notado, se incita y empuja a los abogados a conocer y hacerse usuarios frecuentes del uso de la inteligencia artificial, que estos sepan utilizar aplicaciones y derivados de la inteligencia artificial, que incorporen el uso de herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA Autónomos / Agentic AI en la labor profesional diaria, que si no lo hacen su ejercicio profesional quedaría obsoleto, que podrían ser «arrollados por el tren de la IA», que deben dejar de ser productores y pasar a ser editores, entre tantas otras cosas.

Pero, ¿qué es lo que en verdad se les está requiriendo?

En primer lugar, utilizar herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA Autónomos / Agentic AI como asistentes ultra calificados es una gran falacia y promesa vacía.

La calidad de la herramienta depende de su entrenamiento, por lo que, si no son herramientas específicas, sólo entrenadas para conocimientos jurídicos específicos en el idioma y región / lugar en el que lo utilicemos, raramente lograrán enfocarse en lo puntualmente relevante que requerimos en un caso específico.Podría optimizarse el entrenamiento de una herramienta en un campo de ejercicio específico y especializado muy determinado, cerrado y acotado, pero no podría ocurrir lo mismo en campos profesionales vastos o más intensivos, aunque estrechos.

Por otra parte, aun cuando fueran capaces de especificidad, requerimos que las mismas sean también entrenadas, corregidas, y auditadas por los «asistentes ultra calificados» humanos de los cuales la orientación de la herramienta depende, lo que nos daría una clara visión en la que lo que buscamos simplemente no es posible. («Las respuestas de la IA pueden contener errores. Más información» reza al pie de cada respuesta recibida).

Si utilizamos una herramienta que equivale a la comida rápida de la generación de solucionismos jurídicos a requerimiento, un agente decisional del pasado sea el que sea o una plataforma de IA Agéntica / Agentes IA Autónomos / Agentic AI, por más que se promocione como la solución de lo que ni el producto original ha sabido brindar, no podrá tampoco ofrecernos o podremos esperar de él respuestas de profunda calidad como las de un restaurante con 3 estrellas Michelin, siendo que agregar automatización o flujos de trabajo a una herramienta que individualmente todavía no rinde sólo multiplicaría la ineficiencia.

La IA Agéntica / Agentes IA Autónomos / Agentic AI procura la creación de agentes autónomos que requieran la mínima supervisión humana posible y la mayor adaptabilidad y flexibilidad, lo que se demuestra ya en su definición como una gran promesa y falacia. En todas las decisiones que requieren un criterio moral superior, deban ser contextuadas, resulten sensibles, resulten críticas por alguna de sus características, la supervisión humana es ineludible, no es sólo una exigencia para la herramienta sino un derecho del titular afectado por la decisión que tome esa IA Agéntica / Agentes IA Autónomos / Agentic AI. Asimismo, la adaptabilidad y flexibilidad sin entrenamiento no existen; si la situación cambia y encima se bajan los controles, los peligros y los riesgos aumentan.Esta liviandad descomedida y excitada por la IA Agéntica / Agentes IA Autónomos / Agentic AI puede ser admisible en campos donde las exigencias profesionales son más bajas porque no son humanos los que reciben su producido, pero en el derecho, la justicia y las ciencias jurídicas, donde están en juego la vida de las personas, sus derechos y su integridad psicofísica y patrimonial, no se pueden abordar lúdica y alegremente aquellas cosas que engendran efectos jurídicos permanentes y hasta irreversibles, aunque en el pasado ese comportamiento haya podido deslizarse sin autocrítica ni corrección alguna del ecosistema jurídico por la irrealidad del evento (como sucedió con el meteórico transcurrir del «Derecho en el metaverso»).

No puede esperar el usuario que las respuestas generadas que busca tengan la profesionalidad y perfección jurídica que logra un profesional del derecho calificado, sino tal vez, la que el conocimiento basal que un estudiante de pobre calificación de grado pueda entregarle.Si ese es el derecho artificialmente generado que esperamos con el uso de herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA Autónomos / Agentic AI, nuestras expectativas jurídicas serán inexorablemente cada día más bajas y será cada día peor nuestra calidad jurídica.

No obstante, deben los profesionales del derecho en cuanto a su responsabilidad, tener clara conciencia de la calidad profesional que prometen y del diferencial de calidad del que privan a sus clientes cuando descansan en el trabajo que realizan por ellos estas herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA Autónomos / Agentic AI.

En segundo lugar, utilizar herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA Autónomos / Agentic AI para evitar que nuestra labor sea obsoleta es otra gran mentira.

Justamente, las herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA Autónomos / Agentic AI, para dar las respuestas que como productos esperamos, se entrenan con datos / información (5), los cuales imitan para responder. Si los presuntos juristas y doctrinarios «obsoletos» dejasen de generar ideas y escribir artículos y libros que son fagocitados por esa gran aspiradora abusiva y no remunerada de información y doctrina generada por los expertos calificados humanos, las herramientas irán irremediablemente perdiendo utilidad y precisión. Por lo que, lejos de ser obsoletos, dependen de la existencia de profesionales.

El problema aquí es otro, no es que la labor jurídica se vuelve obsoleta, es que si se logra que todos usen herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA Autónomos / Agentic AI, lo que se va a volver obsoleto es la capacidad profesional propia y autónoma y el juicio profesional crítico, por lo que la dependencia con las herramientas va a ser absoluta.

Cuanto más se las utilice, menor capacidad creativa se fomentará, hasta que la aniquile.Cuando ello suceda, ya no habrá ni juristas ni doctrinarios, pero no porque hayan dev enido en inservibles para la sociedad, sino porque una herramienta masiva habrá erradicado progresivamente las capacidades humanas para hacer esas tareas. Y será en ese punto en el que el progreso científico del derecho también se vea interfecto.

En tercer lugar, no existe el «tren de la inteligencia artificial» ni ningún monstruo que no podamos identificar que hubiera venido a aniquilarnos, más que el objetivo desprovisto de toda ética de la industria y de los adláteres de la industria, quienes nos arrancarán nuestra cooperación por las buenas o por las malas.

Si no utilizamos voluntariamente las herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA Autónomos / Agentic AI en nuestros despachos voluntaria y complacientemente, las utilizaremos por terror, coacción o desconfianza.

Utilizaremos las herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA Autónomos / Agentic AI en nuestros despachos para no parecer «poco modernos», para aparentar «innovación y disruptividad», para integrarnos a «la ola», para estar «a la moda», porque los seres humanos somos seres sociales, porque el arraigo nos importa y la existencia en soledad tiene un precio.

El creer que nuestra labor profesional no está integrada a los tiempos que corren es un pensamiento espeso que naturalmente preocupa a muchos y el facilismo que proponen las herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA Autónomos / Agentic AI en nuestros despachos es mucho menos doloroso que buscar innovación y disrupción en la capacitación y formación continua y en seguir alimentando nuestra capacidad creadora, creativa y productiva: escribir unas líneas, presionar un botón y copiar y pegar un resultado es un proceso neurológicamente mucho menos doloroso y traumático que pensar y crear.

En cuarto lugar, no hay ascenso o crecimiento profesional alguno en pasar de ser productores a editores, tal como se intenta mercadear.Las herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agente IA autónomo / Agentic AI nos convertirían en editores de sus producidos, porque a través de su uso como se señalara antes, evitamos pasar por ese traumático evento que implica la creación.

Producir es engendrar, es procrear, es crear.

Producir es crear valor, es crear algo nuevo a partir de la combinación de otros factores, transformando recursos. En la economía, es la base de la creación de bienes y en nuestro caso de nuestros servicios profesionales, para la satisfacción de las necesidades de nuestros clientes.

Las herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agente IA autónomo / Agentic AI no producen, no crean, imitan lo creado ya por otros.

Por otro lado, editar es el proceso de modificar o perfeccionar o adecuar algo para un determinado propósito, uso, audiencia, etc. Implica un proceso de corrección y de mejora, con fines de revisión, optimización y / o adaptación, para su posterior publicación, uso, difusión, etc.

Los profesionales de la abogacía somos por naturaleza productores de servicios y editores, poseemos ambas capacidades y utilizamos a diario ambas también. No obstante, no podríamos ser editores sin ser antes productores, pues nunca sabremos mejorar, revisar o adecuar algo, sin saber previamente como debería ser ese algo.

Ahora bien, para editar algo con valor, debe haber sido hecho previamente por un productor o creador, ya que ningún valor reviste editar algo estéril, inútil, imperfecto o inutilizable.

Es allí donde caemos en cuenta de la falacia que se señalara.

Para convertirnos en editores y dejar de ser creadores, necesariamente deberíamos ser creadores en potencia, porque sino no podríamos hacer lo primero de forma competente.

Por lo que debemos preservar nuestras capacidades creadoras o productivas, porque si las perdemos, nunca podríamos editar bien. Si por usar ciertas herramientas perdemos la capacidad profesional de crear y producir, también perderemos la capacidad profesional de editar criteriosa y responsablemente.Esto no se está evaluando.

Por otra parte, el producto que debemos editar debiera ser idóneo y está claro que la inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA autónomos / Agentic AI no son productores, sino herramientas que imitan lo producido por otros y lo reproducen imitativamente, sin ningún tipo de juicio, criterio, sensibilidad, contexto o responsabilidad.

Editar productos de baja calidad o no idóneos es una tarea que desperdicia los finitos recursos que disponemos para desarrollar nuestras labores profesionales. Editar algo inidóneo puede costarnos más tiempo y esfuerzo que producir o crear desde cero algo idóneo, cuando tenemos suficiente experticia. Por lo que la ayuda que puede darle a un profesional avanzado del derecho el uso de herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA autónomos / Agentic AI es nula por esta circunstancia; la capacidad creadora del profesional avanzado no es sustituible.

Por último, dejar de ser productores para ser editores, es en lo tangible y laboral una promesa similar de dejar de ser abogados para ser procuradores.

Claramente en nuestro devenir profesional superamos la calificación de procuradores al convertirnos en abogados; ambas labores profesionales son desde ya dignas, no obstante para un profesional del derecho el norte es otro. Los abogados no desearíamos dejar de asesorar, analizar, elaborar, defender, redactar, etc., a cambio de sólo ocuparnos de la tramitación, la gestión documental y procesal de nuestros clientes.Como abogados muchas veces realizamos ambas tareas y funciones, pero no renunciaríamos a la primera a cambio de la segunda, en todo caso, tercerizaríamos la segunda para seguir encargándonos de la primera.

Los abogados deben ser conscientes de los riesgos asociados al uso de las herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA autónomos / Agentic AI y garantizar que su implementación respete los principios de lealtad, probidad y buena fe en nuestro ejercicio profesional del derecho.

El uso de herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agente IA autónomo / Agentic AI no sustituye la calidad profesional ni asegura mejoras en eficiencia o eficacia en el ejercicio del derecho.

Los abogados deben reivindicar su rol profesional y evitar ser seducidos por promesas tecnológicas que desvirtúan su oficio. No se debe perder de vista que ética profesional y el respeto por los derechos fundamentales deben ser los pilares de cualquier integración tecnológica en el ámbito jurídico.En lo que respecta a nuestra responsabilidad profesional, nuestro deber de confidencialidad y reserva, y la protección de datos que debemos necesariamente resguardar nuestro cliente, debe ser entendido que todo aquello que se inserta por el uso de herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agentes IA autónomos / Agentic AI pierde privacidad y confidencialidad y pasa a manos de un tercero, cuyo entorno de procesamiento y explotativo de datos no gobernamos ni controlamos (6).

El uso de herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agente IA autónomo / Agentic AI es la fuente de pérdida total de privacidad y ciberseguridad de nuestro despacho, en la función que fuere del derecho que se ejerza (despacho profesional o juzgado). El contenido que se vuelca puede ser objeto de exfiltración, conocimiento por parte de terceros no autorizados, explotación analítica no consentida, y hasta de extorsión si se conociera, y en lo judicial de recusación y excusación en caso de conocerse (7).

Con el uso irreflexivo y promiscuo de herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agente IA autónomo / Agentic AI se pondera la innovación por sobre los riesgos de ciberseguridad y mientras ello siga sucediendo, los riesgos continuarán superando los beneficios presuntos que se obtiene con ello.

El ejercicio profesional de la abogacía aún no se ha detenido en el estudio detallado de todos los riesgos existentes en el uso de herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agente IA autónomo / Agentic AI en materia de ciberseguridad y tipos de ataques específicos que se han desarrollado y que los ciberdelincuentes pueden ejecutar.Son ataques cibernéticos propios y específicos para la inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agente IA autónomo / Agentic AI, que se encuentran a la fecha aún poco difundidos y cuyos efectos claramente están siendo subestimados irresponsablemente por todos.

Finalmente, el ejercicio profesional de la abogacía no puede descuidar en el examen de su responsabilidad la preservación de la seguridad jurídica. El uso masivo y descuidado de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agente IA autónomo / Agentic AI puede introducir errores masivos y descuidados también de difícil o imposible retrotracción. Y ese es un riesgo que la seguridad jurídica de nuestro sistema jurídico no puede permitirse. Los letrados no podemos presentar escritos y luego arrepentirnos de ellos y pedir que en instancias que han precluido se admitan otros en su reemplazo. Los jueces no pueden volver atrás sentencias firmes antojadizamente. Mucho menos unos y otros pueden hacerlo en el volumen que se espera se pueda producir de forma simultánea con el uso de inteligencia artificial.

III. REFLEXIÓN FINAL:LA DELEGACIÓN Y EXTERNA LIZACIÓN COGNITIVA

La integración en el ejercicio profesional de la abogacía del uso de herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agente IA autónomo / Agentic AI lejos de proveernos seguridades, nos asegura sin duda una serie de problemas de profunda gravedad que aún no se encuentran resueltos.

Es por ello que todo reflejo muscular que un profesional procure bajo el encanto o embelesamiento hipnótico, la coacción o amenazas de su presunta obsolescencia programada a manos de estas herramientas, debería ser neutralizado por la reflexividad y el juicio crítico que también se perdería a manos de ellas.

Las mismas no sólo no aseguran ni mejoras en eficiencia, efectividad o eficacia, como así tampoco calidad, sino que ni siquiera proveen aquello que sí les han provisto a todos, todas y cada una de las herramientas tecnológicas previamente introducidas en nuestro ejercicio profesional, que es la ampliación de nuestras capacidades.

Las herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agente IA autónomo / Agentic AI aplicadas al ejercicio profesional del derecho son las primeras herramientas que lejos de potenciar y ampliar nuestras capacidades, tienen la función y el objetivo de reducirlas y aniquilarlas para generar dependencia.

El peor de los riesgos humanos específicos que presenta el uso extendido e intensivo de herramientas de inteligencia artificial generativa / IA Generativa / IAGen / gen AI e IA Agéntica / Agente IA autónomo / Agentic AI es aquel que opera sobre la agencia humana:la pérdida de la capacidad de tomar decisiones y actuar de forma autónoma e independiente y la elusión de los procesos de aprendizaje.

Ya se ha instalado a nivel internacional la problemática relativa al fenómeno que se conoce como «delegación cognitiva».

La «delegación cognitiva» refiere a la práctica de tercerizar, delegar, transferir, externalizar, etc., la realización de aquellas tareas que requieren de habilidades cognitivas (como el uso del razonamiento, el juicio, la crítica, la memoria, la toma de decisiones, etc.) a sistemas, agentes, dispositivos externos, y herramientas tales como el uso de la inteligencia artificial en sus varias manifestaciones.

El efecto final de la misma es la externalización cognitiva, la dependencia en las herramientas y los riesgos asociados en la pérdida de habilidades cognitivas (8), así como la capacidad de pensar críticamente.

Estas habilidades no son prescindibles en el ejercicio profesional de la abogacía, donde no podemos depender de lo que un tercero decida y determine por nosotros.

El verdadero tren que nos va a arrollar y que va a aniquilar nuestra profesión es ese y es nuestra responsabilidad profesional proveer a nuestra auto preservación, toda vez que la industria no lo hará por nosotros.

El día que los abogados dejemos de escribir por nosotros mismos y dejemos de ser creadores y productores, y perdamos nuestra capacidad profesional de retransmitir nuestros conocimientos a las generaciones venideras de profesionales, alguien sin dudas lo hará por nosotros, con el inexorable y fatal precio que ello signifique para nuestra profesión, para el derecho y para la justicia.

———-

(1) FALIERO, Johanna Caterina, «La Protección de Datos Personales». Editorial Ad Hoc. 3ra. Edición Actualizada y Ampliada, 2024.

(2) FALIERO, Johanna Caterina. «Limitar la dependencia algorítmica. Impactos de la inteligencia artificial y sesgos algorítmicos». Revista Latinoamericana de la Fundación Friedrich Ebert – https://www.nuso.org/. Link: https://static.nuso.org/media/articles/downloads/9.TC_Faliero_294.pdf. Tema central | NUSO Nº 294 / Julio – agosto 2021. Argentina. Año 2021.

(3) FALIERO, Johanna Caterina.«Peligros de alto impacto y elevada criticidad que introduce el uso de Inteligencia Artificial en la Justicia y el dictado de sentencias: el sesgo algorítmico y el perfilamiento algorítmico como amenazas impalpables e implacables y el data lake como paradigma de descontrol en protección de datos.». Revista Jurídica Franco-Argentina / Revue Juridique Franco-Argentine Facultad de Ciencias Jurídicas, Universidad del Salvador | Faculté de Droit, Université Lumière Lyon 2. ISSN 2683-7641, Número 7, 2022.

(4) FALIERO, Johanna Caterina. «La Resolución 161/2023 de creación del «Programa de transparencia y protección de datos personales en el uso de la Inteligencia Artificial» y sus incongruencias con la protección de datos pretendida por la AAIP en el Proyecto de Reforma a la Ley 25326.». RC D 441/2023.

(5) FALIERO, Johanna Caterina. «’Imperitia confidentiam, eruditio timorem creat’. La declaración conjunta sobre data scraping vs. la nota de opinión de la AAIP sobre el proyecto de reforma a la ley de protección de datos personales». MJ-DOC-17416-AR | MJD17416.

(6) FALIERO, Johanna Caterina. «El derecho al anonimato. Revolucionando el paradigma de protección en tiempos de la posprivacidad». Editorial Ad Hoc. 2da. Edición Actualizada y Ampliada, 2024.

(7) FALIERO, Johanna Caterina. «Infosecurity, Seguridad Informática, Ciberseguridad & Hacking. ‘To Hack And Not To Jail’. Tratado integral de aspectos legales y técnicos avanzados en Seguridad Informática y Hacking y Manifiesto Legal para Hackers y especialistas en Infosecurity.». Editorial Ad Hoc. 1ra. Edición, 2023.

(8) «Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task» (Nataliya Kosmyna, Eugene Hauptmann, Ye Tong Yuan, Jessica Situ, Xian-Hao Liao, Ashly Vivian Beresnitzky, Iris Braunstein, Pattie Maes. arXiv:2506.08872v1 https://doi.org/10.48550/arXiv.2506.08872.Ver): https://arxiv.org/abs/2506.08872

(*) Dra. Johanna Caterina Faliero es PhD – Doctora en Derecho con Tesis Doctoral Distinguida en Protección de Datos Personales en el área de Derecho Civil de la Facultad de Derecho de la Universidad de Buenos Aires.Especialista en Derecho Informático, con Programas de Actualización en Derecho del Consumidor Profundizado y Abogada en Derecho Empresarial y Privado de la Facultad de Derecho de la Universidad de Buenos Aires. Directora del Programa de Actualización de Posgrado en «Abogacía de Datos: Data Governance, Data Compliance, Data Ethics, Data Analytics, Algoritmos, Infosec & Ciberseguridad e E-Discovery» de la Facultad de Derecho de la Universidad de Buenos Aires. Directora de los Cursos Independientes de Posgrado en «Actualización en Data Privacy, Data Protection, Data Governance y Compliance, LPDP, GDPR y el DPO. Infosec y Cybersec, Anonimato, Perfilamiento, Identidad y Evidencia Digital.» y «Asesoría Legal en Criptomonedas, Blockchain y Smart Contracts. Economía Digital y FinTech. E-commerce, Contratación Electrónica, Convergencia Digital y Protección del E-consumidor / Consumidor Electrónico» de la Facultad de Derecho de la Universidad de Buenos Aires. Directora del Posgrado en «Derecho Informático Avanzado, Fintech & Regtech» (Facultad de Derecho UP). Directora del Posgrado «Ciberdelitos, Hacking y Aspectos Legales de la Evidencia Digital» (Facultad de Derecho – UP). Directora del Posgrado «Derecho a la Protección de los Consumidores y Usuarios: problemáticas modernas y aspectos estratégicos» (Facultad de Derecho – UP). Directora del Posgrado «Derecho Informático Avanzado, LegalTech, IA & Algoritmos» (Facultad de Derecho UP). Directora de Faliero Attorneys At Law. Consultora Internacional, Asesora y Representante Legal Especializada para Argentina, LATAM, Caribe y UE en Derecho Informático, Protección, Seguridad, Privacidad y Gobernanza de Datos, Data Compliance, RegTech, Algoritmos, Inteligencia Artificial, Ética de Datos, Ética de la IA, Ética de los Algoritmos, Anonimato, Perfilamiento, Identidad Digital, Infosecurity, Ciberseguridad, Ciberdefensa, Ciberinteligencia, Políticas y Gobernanza de Internet, Comercio Electrónico y Economía Digital, Criptomonedas, Blockchain Technology, Smart Contracts, FinTech, Contratación Electrónica, E-Consumidor, Documentación Digital, LegalTech, Prueba Informática y Evidencia Digital, Delitos Informáticos, Hacking, E-Gobierno, Derecho Privado, Contratos, Responsabilidad Civil y Daños, Derechos del Consumidor y Competencia, Derecho Empresarial, Compliance y RSE. Profesora Titular de la materia «Régimen Legal de Datos» de la Especialización en Criptografía y Seguridad Teleinformática y la Maestría en Ciberdefensa de la UNDEF.Profesora Titular de la materia «Derecho en el Ciberespacio» del Curso de Nivelación, del Curso Conjunto de Homologación de Competencias en Ciberdefensa y del Curso Básico de Capacitación en Ciberdefensa y Profesora Titular de la materia del «CBCCD – Derecho Internacional en el Ciberespacio I y II» del Instituto de Ciberdefensa de las Fuerzas Armadas (Escuela Superior de Guerra Conjunta de las FFAA). Integrante del Comité Académico del Instituto de Ciberdefensa de las Fuerzas Armadas (Escuela Superior de Guerra Conjunta de las FFAA). Profesora Adjunta de «Contratos Civiles y Comerciales» del Programa Franco-Argentino de Abogacía de la Facultad de Ciencias Jurídicas USAL. Profesora Invitada en Universidades locales e internacionales. Investigadora Adscripta del Inst. Gioja. Miembro de f r Network – Feminist AI Research Network de Canada’s International Development Research Centre (IDRC) Gender at Work, y la Alliance. Autora de 8 libros, entre ellos: «LA PROTECCIÓN DE DATOS PERSONALES» (3ra. Edición Actualizada y Ampliada – Editorial Ad Hoc, 2024); «EL DERECHO AL ANONIMATO» (2da. Edición Actualizada y Ampliada – Editorial Ad Hoc, 2024), e «INFOSECURITY, SEGURIDAD INFORMÁTICA, CIBERSEGURIDAD & HACKING. TO HACK AND NOT TO JAIL» (1ra. Edición – Editorial Ad Hoc, Año 2023). Disertante nacional e internacional.

Suscribete

Descubre más desde AL DÍA | ARGENTINA

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo