Icono del sitio AL DÍA | ARGENTINA

#Doctrina Consecuencias del uso excesivo de la IA en educación. ¿Regulación rigurosa o flexible?

Autor: Colletto, Hernán

Fecha: 16-04-2026

Colección: Doctrina

Cita: MJ-DOC-18716-AR||MJD18716

Voces: EDUCACIÓN – MENORES – INTELIGENCIA ARTIFICIAL – DERECHO – DERECHOS DEL NIÑO

Sumario:
I. Introducción. II. Desarrollo. III. Conclusiones. IV. Referencias bibliográfica.

La Inteligencia Artificial llegó a las aulas, ¿qué opinas?
2 votes · 2 answers

Doctrina:
Por Hernán Colletto (*)

I. INTRODUCCIÓN

El avance acelerado de las herramientas tecnológicas basadas en programas de Inteligencia Artificial nos presenta desafíos y oportunidades a gran escala. Sin embargo, también conlleva riesgos cada vez más presentes.

La lista es numerosa y se amplía rápidamente. El uso creciente de las herramientas basadas en IA en todos los campos, potencia posibilidades, pero también peligros. Esta transformación tecnológica no es un fenómeno aislado, tiene repercusiones directas en múltiples ámbitos de la vida humana.

La educación no es la excepción a la descripción precedente.

El uso excesivo de la IA por parte de estudiantes y profesores abre un abanico de situaciones negativas que requieren un riguroso análisis, así como un adecuado tratamiento legislativo. Pereza metacognitiva, acoso digital, discriminación, daño emocional, disminución del pensamiento crítico, ilusión de realidad digital, retos digitales de alto riesgo y desinformación se constituyen en los principales ejemplos.

La perfección creciente de las producciones basadas en IA dificulta progresivamente la posibilidad de discernir entre la realidad y la creación digital, planteando interrogantes fundamentales sobre la confianza, la ética y la veracidad en nuestra sociedad contemporánea.

Algoritmos capaces de generar retratos de personas que jamás existieron confunden nuestra memoria visual. Noticias falsas acompañadas de videos hiperrealistas pueden provocar pánicos masivos. Las redes sociales se convierten en laberintos de ficción donde cada vez hay menos certezas.

Porayska-Pomsta (2024), profesora en Artificial Intelligence in Education en el University College London (UCL) ha expresado con meridiana claridad que el campo de la IA educativa necesita un compromiso real con la innovación centrada en lo humano, gobernanza ética, supervisión y colaboración interdisciplinaria para garantizar un impacto positivo.

Este trabajo propone examinar los impactos negativos asociados a un uso excesivo de la Inteligencia Artificial, con especial énfasis en el ámbito educativo. Además, evaluar la conveniencia de adoptar un marco regulatorio estricto o flexible.

II. DESARROLLO

La IA nos invade, nos interpela y nos desafía, a cada instante.Permea todos los escenarios de la actualidad.

La inteligencia artificial se consolida como un referente de autoridad para los seres humanos, influyendo cada vez más en nuestras decisiones cotidianas. Este creciente protagonismo encierra significativos riesgos, ya que al delegar nuestro pensamiento crítico en los algoritmos, aceptamos sus respuestas como verdades absolutas, relegando nuestra capacidad de cuestionar, analizar y comprender el mundo por cuenta propia.

Florencia Labombarda, licenciada en ciencias biológicas e investigadora del CONICET en el Instituto de Biología y Medicina Experimental, señala «es muy importante incentivar en los niños la metacognición, que entiendan para qué sirve la inteligencia artificial y cuál es el límite de su uso. El exceso se da cuando la IA empieza a pensar por nosotros. Si eso se perpetúa, el cerebro pierde entrenamiento (citado en Organización de Estados Iberoamericanos 2025)».

Asimismo, la especialista nos advierte que «las aplicaciones de IA están diseñadas para complacer al usuario. Es clave que los chicos y adolescentes comprendan que detrás de esas respuestas no hay una persona que empatiza, sino un algoritmo (citado en OEI 2025)».

1- Consecuencias del uso excesivo de la IA: pereza metacognitiva, pérdida de capacidad de análisis y pensamiento crítico, descarga cognitiva, acoso digital, ilusión de la realidad digital, retos digitales de alto riesgo, desinformación.

Retomando los conceptos de la investigadora arriba expresados, comprendemos que el exceso en la utilización de la inteligencia artificial se configura cuando le cedemos nuestro protagonismo en funciones indelegables como la de nuestro propio pensamiento.Esta conducta es un desencadenante de consecuencias negativas que involucra a la persona que la protagoniza y a los resultados que se obtienen sin la adecuada supervisión humana.

Otra muestra en consonancia con lo afirmado precedentemente es la pereza metacognitiva, conceptualizada como la menor inversión deliberada en planear, monitorear y evaluar el propio aprendizaje, según Fan y colegas (citado en Melchor Sánchez Mendiola 2025).

Se trata de una situación estrictamente emparentada con la comodidad que elimina procesos necesarios, produce controles superficiales y desemboca en la aplicación permanente de la conocida ley del menor esfuerzo.

Mientras que el sujeto pierde capacidad de análisis, reflexión y pensamiento crítico, los resultados obtenidos por la IA sin la adecuada supervisión humana irrumpen en distintos escenarios con graves riesgos, incluido el ámbito educativo.

El uso intensivo de la inteligencia artificial ha generado una dependencia creciente en herramientas externas para resolver tareas que requerían un esfuerzo mental. Este fenómeno es definido como descarga cognitiva. Según Gerlich (citado en Melchor Sánchez Mendiola 2025), consiste en la acción de delegar a dispositivos externos procesos que antes realizábamos con nuestra cabeza.

Esta delegación constante no solo ahorra tiempo, sino que también moldea silenciosamente nuestra forma de pensar y tomar decisiones. Al confiar en algoritmos para procesar información y generar soluciones, corremos el riesgo de que nuestro cerebro reduzca su propio esfuerzo analítico y creativo.

Cada vez que permitimos que la IA haga el trabajo por nosotros, se redefine la frontera entre la inteligencia humana y la automatización tecnológica.

En el campo educativo, corresponde a los docentes asumir un rol insustituible en el aula para definir la utilización de las herramientas tecnológicas basadas en inteligencia artificial dentro un marco estrictamente vinculado a los propósitos pedagógicos.

Desde mi punto de vista, la forma más adecuada para lograrlo consiste en emplear la inteligencia artificial como un recurso que enriquezca y potencie el proceso educativo, en lugar de convertirla en el reemplazo de los componentes humanos que hacen valiosa a la enseñanza.La IA debería funcionar como una herramienta que amplíe y complemente las posibilidades de docentes y estudiantes.

«Durante la niñez y adolescencia, la corteza prefrontal y los sistemas de memoria aún están en maduración. El uso excesivo de IA sin entrenamiento previo de habilidades básicas puede afectar la consolidación de memoria a largo plazo (hipocampo); la inhibición conductual y atención sostenida (corteza prefrontal) y la mentalización social (redes de la empatía y teoría de la mente)», afirma Claudio Waisburg, médico neurocientífico y director del Instituto SOMA (citado en Jaimovich 2025).

Un estudio reciente sobre acoso escolar realizado por las fundaciones ANAR y Mutua Madrileña indica que el ciberacoso ha aumentado significativamente en España, afectando a estudiantes de distintas comunidades autónomas. Entre los hallazgos más preocupantes, se observa que los menores utilizan cada vez más herramientas digitales para acosar a sus compañeros.

En el 14% de los casos de acoso digital, los estudiantes usan inteligencia artificial para crear vídeos falsos a partir de la manipulación de fotos, vídeos o audios de otros integrantes del curso, o incluso para suplantar su identidad (Diez 2025). Este fenómeno evidencia cómo la utilización excesiva e inadecuada de la IA puede convertirse en un instrumento que amplifica y facilita la violencia digital entre jóvenes.

En este punto, surge otra gran problemática vinculada a los temas desarrollados, denominada ilusión de realidad digital y consiste en la creciente dificultad para distinguir con certeza entre las creaciones falsas y las verdaderas, un desafío que se vuelve cada vez más complejo a medida que avanzan las tecnologías de manipulación digital e inteligencia artificial.

La conferencia CHI sobre Factores Humanos en Sistemas Informáticos se celebró del 26 de abril al 1 de mayo de 2025 en Yokohama, Japón. En ese marco, se presentó el artículo Characterizing Photorealism in AI-Generated Images (Kamalietal.2025), en el que participaron 50.444 personas y se analizaron 749.828 observaciones sobre imágenes generadas por modelos de difusión. En dicho estudio se midió la precisión humana para distinguir imágenes reales de las generadas por IA, y los resultados muestran que apenas el 37% de los participantes logró identificar correctamente una imagen real frente a una generada por IA.

Además, se observó que la tasa de acierto decae notablemente cuando el tiempo de visualización de la imagen no supera el segundo. Estos hallazgos evidencian la dificultad creciente de diferenciar lo real de lo artificial en la era de la IA generativa.

Como muestran los estudios revisados, y considerando la vertiginosa velocidad con la que se perfeccionan las herramientas basadas en inteligencia artificial, la capacidad humana para diferenciar lo real de lo falso se volverá progresivamente insuficiente.

En un futuro cercano, paradójicamente, sólo la propia IA podrá ofrecer certeza sobre la autenticidad de la información. Nuestras habilidades cognitivas resultan muy limitadas para alcanzar conclusiones precisas sobre este fenómeno.

El escenario descripto plantea un desafío sin precedentes: dependemos cada vez más de sistemas artificiales para validar la realidad que percibimos.

Un caso real demostrativo: la falsa explosión del Pentágono

En mayo de 2023 circuló en redes sociales una imagen aparentemente fotográfica que mostraba una explosión frente al Pentágono, supuestamente causada por un ataque.La imagen había sido generada con IA, pero era suficientemente creíble para engañar a miles de personas en cuestión de minutos.

Muchas cuentas de redes sociales -incluyendo algunas verificadas- publicaron la imagen como si fuera real.

La noticia falsa se difundió masivamente antes de ser desmentida.

Según informó el artículo de CNN titulado «Cómo una foto falsa de una explosión en el Pentágono se volvió viral y asustó brevemente a las acciones», una imagen generada artificialmente que mostraba una explosión cerca del Pentágono fue difundida por diversas cuentas de gran alcance en Twitter, entre ellas la cadena estatal rusa RT y el sitio financiero ZeroHedge, ambos usuarios del sistema Twitter Blue. La rápida viralización del contenido provocó un breve episodio de desinformación que incluso generó reacciones momentáneas en los mercados bursátiles antes de que se confirmara públicamente que la fotografía era falsa (CNN 2023).

Los mercados reaccionaron casi de inmediato con pérdidas millonarias. Se produjo un comportamiento de flash crash típico de reacciones algorítmicas y humanas a información de alto impacto.

Si bien poco tiempo después se confirmó que la noticia era falsa y los mercados se recuperaron, el hecho confirmó por primera vez en la historia que una imagen generada por IA tenía la capacidad de impactar gravemente en los mercados financieros evidenciando la vulnerabilidad de los sistemas de verificación en tiempo real.

Retomando los impactos en el ámbito educativo, más específicamente en los casos de acoso digital, puede advertirse con suficiente claridad la magnitud de los riesgos. Porque no solamente se produce un daño de consideración con la creación de una falsa imagen o video sobre la persona acosada, sino que luego se profundiza cuando no puede determinarse con certeza y rapidez su falsedad.Se configura así desde el punto de vista técnico jurídico un supuesto de progresión del daño, en el cual se pasa de un perjuicio primario -imagen falsa o video- a un agravamiento posterior -imposibilidad de determinar rápidamente la falsedad-.

Otra consecuencia negativa generada por el uso excesivo e inadecuado de la inteligencia artificial, en este caso más vinculada a adolescentes, es el incremento de la participación en retos digitales de alto riesgo, impulsados por contenido generado o amplificado por IA.

Uno de los tantos ejemplos altamente peligrosos es el Cinnamon Challenge, que consiste en tragar una cucharada de especia sin agua, lo que provoca usualmente vómitos y asfixia.

Durante la adolescencia, el cerebro atraviesa una reorganización neurobiológica que vuelve el sistema socio emocional (relacionado con la recompensa y la emoción) especialmente sensible a estímulos gratificantes, mientras que el sistema de control cognitivo -encargado de la autorregulación, el razonamiento y el control de impulsos- aún no está completamente desarrollado. Esta disparidad explica por qué los adolescentes muestran una mayor propensión a conductas impulsivas o arriesgadas, sobre todo en contextos sociales o en presencia de pares, donde la anticipación de recompensas pesa más que la evaluación de riesgos (Steinberg 2008).

En palabras más sencillas, la emoción positiva que provoca la interacción en línea puede superar con facilidad cualquier percepción de riesgo, haciendo que los adolescentes se involucren en retos extremos o comportamientos impulsivos que, de otra manera, podrían evitar.

En esta línea de razonamiento, se infiere que los estímulos digitales como videos virales, retos, contenido provocativo, tienen alto poder de influencia y persuasión para ellos, incluso si ese contenido incluye engaños o señales poco creíbles.

Otro fenómeno derivado del uso excesivo de la inteligencia artificial es la desinformación.

En este trabajo hemos analizado precedentemente algunos aspectos sobre cómo las herramientas basadas en inteligencia artificial facilitan la rápida creación y difusión de contenido falso o manipulado.Asimismo, hemos destacado la creciente dificultad que enfrentan los jóvenes para distinguir entre noticias verídicas e información engañosa

Según un informe de UNICEF (2023), solo el 44% de los adolescentes afirmaron que podían reconocer con seguridad si una noticia era auténtica o falsa.

Este bajo nivel de discernimiento los expone a riesgos como la manipulación de opiniones, toma de decisiones en base a informaciones incorrectas y la propagación de información falsa, especialmente en redes sociales y plataformas digitales en las cuales los mecanismos de verificación son muy limitados.

2- Impactos del uso excesivo de la IA en el proceso educativo:

La incorporación acelerada de la inteligencia artificial (IA) en contextos educativos ha generado expectativas de innovación, personalización y eficiencia. No obstante, un uso excesivo o acrítico de estas tecnologías puede socavar los fundamentos del proceso educativo al alterar las dinámicas de diagnóstico, planificación, enseñanza, aprendizaje y evaluación. Estas alteraciones no son meros «efectos colaterales», sino transformaciones profundas que comprometen la intencionalidad pedagógica y la formación de sujetos críticos.

En este marco, resulta pertinente recuperar el concepto de secuencia didáctica desarrollado por Avendaño y Berges (2007), quienes la conciben como un sistema articulado en el que objetivos, contenidos, actividades, mediaciones y evaluación se integran de manera coherente y progresiva. Un empleo indiscriminado y sin análisis crítico de la inteligencia artificial tiende a fragmentar esta lógica sistémica, sustituyendo decisiones pedagógicas por respuestas automatizadas.

Cuando la IA interviene sin un diseño didáctico consciente, se debilita la intencionalidad formativa de la secuencia y se desdibuja el rol del docente como mediador del aprendizaje. En consecuencia, la enseñanza corre el riesgo de perder su sentido pedagógico para transformarse en una mera ejecución tecnológica. Bajo esta perspectiva, y recuperando conceptos de Copertari (2024), se advierte «una educación reproductora con docentes poco formados en la virtualidad y empobrecidos cognitivamente respecto al manejo de las tecnologías con un sentido pedagógico» (p.33). Esta desvitalización del rol docente se manifiesta con claridad desde el inicio de la secuencia didáctica.

En la etapa de diagnóstico, la dependencia de sistemas de IA para recopilar información inicial -por ejemplo, mediante tareas automatizadas o cuestionarios asistidos- puede ofrecer al docente una visión clara pero engañosa del estudiantado. Lejos de revelar las singularidades, dificultades y potencialidades individuales, las producciones mediadas por IA presentan una uniformidad que disfraza diferencias cognitivas, culturales o motivacionales.

Ese diagnóstico distorsionado repercute directamente en la planificación, que deja de responder a un sujeto real para adaptarse, aunque no con intención explícita, a estructuras estandarizadas propiciadas por la IA.

Como advierte Rivas Frangos (2025), la utilización excesiva de la IA puede conducir a una dependencia cognitiva y a la erosión de habilidades críticas como la creatividad o el pensamiento reflexivo profundo. De esta manera, la planificación pierde su carácter flexible y contextualizado, transformándose en una aplicación mecánica de contenidos y actividades prediseñadas.

Cuando la fase de enseñanza se desarrolla bajo ese marco, la mediación humana dialogada, interpretativa y crítica puede verse desplazada por la lógica tecnológica.

Este debilitamiento de la mediación tiene implicancias directas en el aprendizaje, etapa en la cual se espera que el estudiante piense, se equivoque, cuestione, compare y reconstruya saberes.

El uso excesivo de la IA promueve una delegación cognitiva que reduce el esfuerzo intelectual y limita el desarrollo de habilidades metacognitivas, de autonomía intelectual y de pensamiento crítico. En este sentido, García Chica y Almeida Lino (2025) plantean que existe el peligro de una dependencia excesiva de la tecnología y que esta pueda limitar la capacidad de los estudiantes para pensar de manera crítica y analítica.

Además, cuando la IA genera contenidos con errores, sesgos o falta de contexto, la confusión entre lo válido y lo errado puede socavar la construcción de conocimiento confiable.Los algoritmos complejos, similares a redes neuronales profundas, funcionan como cajas negras, lo que dificulta entender por qué producen ciertos resultados. Esa opacidad genera riesgos porque no siempre se puede detectar cuándo la IA está equivocada (Bulut et al. 2024).

Finalmente, en la fase de evaluación y retroalimentación, el problema se vuelve particularmente agudo.

La evaluación debe permitir acceder al producto legítimo del proceso cognitivo del estudiante: sus ideas, su argumentación y su capacidad de análisis. Pero si ese producto fue en buena parte generado por IA, la evaluación pierde su validez como medida del aprendizaje real.

En ese marco, la retroalimentación del docente ya no se orienta a las dificultades auténticas del estudiante sino a un artefacto tecnológico, tornando vacía su función formativa.

En definitiva, la cuestión no es simplemente si la IA es buena o mala, sino cómo y en qué condiciones se integra al proceso educativo.

Si la IA se utiliza sin un diseño pedagógico ético y consciente, existe el riesgo de que debilite el pensamiento crítico, reflexivo y formativo de los estudiantes (Rivas Frangos 2025; García Chica y Almeida Lino 2025).

3- ¿Regulación rigurosa o flexible? Responsabilidades

Analizadas las consecuencias del uso excesivo de la IA y su impacto en el proceso educativo, resulta imperativo avanzar hacia el análisis de una previsión normativa adecuada.

Aunque las normas suelen rezagarse respecto de los desarrollos tecnológicos, este desfase es aún más crítico en el caso de la IA, cuyos avances ocurren al ritmo de las computadoras y no al de las generaciones humanas.

Nadie duda, a esta altura de los acontecimientos, sobre la necesidad de marcos regulatorios sólidos y eficaces: la pregunta central se traslada a la técnica jurídica necesaria.¿Es preferible una normativa estricta, detallada y restrictiva, o conviene un enf oque flexible que favorezca la innovación sin sofocar el progreso?

En ese sentido, la UE ha dado un paso decisivo con la aprobación del Reglamento (UE) 2024/1689 (la llamada «Ley de Inteligencia Artificial»), adoptado por el Parlamento Europeo y el Consejo de la Unión Europea en 2024, que entró en vigor el 1 de agosto de 2024. Este reglamento establece normas armónicas en materia de IA, clasifica los sistemas según su nivel de riesgo y fija obligaciones diferenciadas para cada categoría.

Además, a nivel internacional, la ONU recientemente aprobó la Resolución A/RES/79/325 de la Asamblea General, adoptada el 26 de agosto de 2025, que crea el Independent International Scientific Panel on Artificial Intelligence y un Global Dialogue on AI Governance.

Se trata de un panel de cuarenta expertos independientes que representarán a diferentes países. Es un mecanismo diseñado para producir evaluaciones científicas sobre riesgos, impactos y oportunidades de la IA, fomentar la cooperación internacional y elaborar orientaciones globales sobre su desarrollo responsable.

Sin embargo -y tal como demuestra el contexto educativo actual- ni un marco regional ni uno global son suficientes por sí solos. Es necesario que cada país adopte regulaciones específicas que consideren sus realidades culturales, pedagógicas y sociales.

Es imperioso que estas normas no se limiten a prohibir o restringir, sino que garanticen el uso humano y formativo de la IA: promoviendo la alfabetización digital, definiendo límites claros para su utilización en contextos escolares, estableciendo obligaciones de transparencia y trazabilidad, y reservando la mediación docente como eje insustituible del proceso educativo.

Resulta oportuno traer el ejemplo de Finlandia. En el corriente año la agencia finlandesa publicó un documento titulado «Artificial intelligence in education – legislation and recommendations».

Si bien no es objeto del presente trabajo el análisis detallado de las normas finlandesas sobre IA, considero fundamental destacar que uno de sus ejes está dado por la denominada «alfabetización en IA» para docentes y estudiantes.Coloca en el centro a sus formaciones.

En otras palabras, se advierte una regulación legal presente garantizando una formación suficiente de los referidos actores de la educación para un uso pedagógico, ético, transparente y equitativo de la inteligencia artificial.

Desde mi punto de vista, la opción más conveniente es combinar la regulación formal con recomendaciones pedagógicas concretas. No se trata de prohibir o permitir exclusivamente, se necesita que la norma establezca mecanismos claros y eficaces para un uso responsable con sentido educativo en el que no se vulneren derechos.

III. CONCLUSIONES

El análisis desarrollado en este trabajo permite afirmar que el uso excesivo de la Inteligencia Artificial en contextos educativos genera impactos profundos y multidimensionales.

Entre ellos destacan la pereza metacognitiva, la disminución del pensamiento crítico, la dependencia cognitiva, la desinformación, la ilusión de realidad digital, el acoso digital y los retos de alto riesgo.

Estos fenómenos no solo afectan a los estudiantes, sino que también condicionan la labor docente, la planificación pedagógica, la mediación educativa y la evaluación de los aprendizajes, erosionando la intencionalidad formativa del proceso educativo.

El escenario actual demuestra que la IA, aunque constituye una herramienta de enorme potencial, puede desplazar la autonomía intelectual y la capacidad crítica de los estudiantes cuando se utiliza de manera acrítica o excesiva.

Frente a este panorama, la regulación se presenta como un instrumento indispensable. Sin embargo, el desafío central no consiste únicamente en legislar, sino en encontrar un equilibrio entre normas estrictas que garanticen la seguridad e integridad pedagógica y mecanismos flexibles que fomenten la innovación tecnológica y la adaptabilidad a distintos contextos educativos.La experiencia de la Unión Europea con el Reglamento (UE) 2024/1689 y la iniciativa de la ONU mediante la Resolución A/RES/79/325 muestran que la cooperación internacional y la clasificación de riesgos son pasos decisivos, pero no suficientes si no se traducen en políticas concretas en las aulas.

El ejemplo finlandés demuestra que el vínculo entre regulación y formación suficiente de docentes y estudiantes resulta clave para garantizar un uso seguro, ético y formativo de la inteligencia artificial.

En este sentido, la propuesta que se desprende de este trabajo final integrador consiste en una regulación educativa de la inteligencia artificial basada en tres ejes complementarios:

a) La definición clara de límites y obligaciones legales para el uso de la IA en entornos escolares.

b) La formación continua de docentes y estudiantes en competencias digitales e IA.

c) La preservación del rol insustituible del docente como mediador y garante de la calidad educativa.

Desde mi punto de vista, la IA no debe reemplazar la experiencia humana, sino potenciarla. Por su parte, la norma debe convertirse en un instrumento de orientación pedagógica en lugar de una mera prohibición o restricción.

La legislación en IA educativa no puede ser un ente aislado. Debe integrarse con lineamientos pedagógicos y científicos, considerando la realidad social y cultural de cada país.

Considero que la combinación equilibrada entre seguridad jurídica, innovación tecnológica y excelencia educativa constituye la opción más adecuada para consolidar la inteligencia artificial como un recurso esencial que potencie los procesos de enseñanza y aprendizaje.

IV. REFERENCIAS BIBLIOGRÁFICAS

Avendaño, Fernando, y Mabel Berges. 2007. Secuencias didácticas: Homo sapiens, homo ludens y homo videns. Rosario: Homo Sapiens Ediciones.

Bulut, Okan, Megan Beiting-Parrish, Joseph M. Casabianca, et al. 2024. «The Rise of Artificial Intelligence in Educational Measurement: Opportunities and Ethical Challenges» arXiv. https://arxiv.org/pdf/2406.18900v1

CNN. 2023. «How a Fake Image of an Explosion near the Pentagon Went Viral and Briefly Spooked Stocks» CNN.https://www.cnn.com/2023/05/22/tech/twitter-fake-image-pentagon-explosion/index.html

Copertari, Susana. 2024. Debates y desafíos de la IA en las aulas. Pensando una nueva educación. Rosario: Homo Sapiens Ediciones.

Diez, Domitila. 2025. «Acoso escolar: En el 14% de los casos de ciberacoso escolar se utiliza la inteligencia artificial, según las fundaciones ANAR y Mutua Madrileña.» El País, 18 de septiembre. https://elpais.com/educacion/2025-09-18/en-el-14-de-los-casos-de-ciberacoso-escolar-se-utiliza-la-inteligenci
-artificial-segun-las-fundaciones-anar-y-mutua-madrilena.html

García Chica, José Luis, y Erika Valeria Almeida Lino. 2025. «La Influencia de la Inteligencia Artificial en el Desarrollo del Pensamiento Crítico Reflexivo de Estudiantes de Bachillerato.» Revista Cognosis. https://revistas.utm.edu.ec/index.php/Cognosis/article/view/6828

Jaimovich, Darío. 2025. «Deuda Cognitiva: El Reto de Aprovechar la IA sin Perder Pensamiento Crítico.» La Nación, 1 de julio. https://www.lanacion.com.ar/tecnologia/deuda-cognitiva-el-reto-de-aprovechar-la-ia-sin-perder-el-pensamiento-
ritico-nid01072025/

Kamali, Negar, Karyn Nakamura, Aakriti Kumar, Angelos Chatzimparmpas, Jessica Hullman, y Matthew Groh. 2025. «Characterizing Photorealism in AI-Generated Images.» Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems, Yokohama, Japón, 26 de abril-1 de mayo de 2025. https://doi.org/10.1145/3706598.3713962

Organización de Estados Iberoamericanos (OEI). 2025. «Especialista Alertó sobre los Problemas que Puede Generar el Uso de la IA en el Cerebro: El Exceso se Da cuando Empieza a Pensar por Nosotros.» https://oei.int/oficinas/argentina/notas-de-prensa/especialista-alerto-sobre-los-problemas-que-puede-generar-
l-uso-de-la-ia-en-el-cerebro-el-exceso-se-da-cuando-empieza-a-pensar-por-nosotros/

Porayska-Pomsta, Kalina. 2024. «Un Manifiesto para una IA Proactiva y Responsable en la Educación» arXiv. https://arxiv.org/abs/2407.05423

Rivas Frangos, José Antonio. 2025. «Inteligencia Artificial en la Educación:Revolución Cognitiva o Erosión del Pensamiento Crítico» CIE Academic Journal 4 (2). https://revistas.unicyt.org/index.php/cie-academic-journal/article/view/286/292

Sánchez Mendiola, Mauricio. 2025 «Pereza Metacognitiva y Descarga Cognitiva en la Era de la IA Generativa: Riesgos y Uso Responsable» Investigación en Educación Médica 14(56):6-9. https://doi.org/10.22201/fm.20075057e.2025.56.25743

Steinberg, Laurence. 2008. «A Social Neuroscience Perspective on Adolescent Risk-Taking» Developmental Review 28:78-106. https://doi.org/10.1016/j.dr.2007.08.002

UNICEF. 2023. How Do Children Engage with News on Social Media? UNICEF. https://www.unicef.org/southafrica/media/7726/file/ZAF-How-do-children-engage-with-news-on-social-media-Repor
-May-2023.pdf

—————-

(*) Abogado, Universidad Nacional de Rosario (UNR). Profesor de Ciencias Jurídicas en la Universidad del Centro Educativo Latinoamericano (UCEL). Diplomado en Estudios Avanzados de Inteligencia Artificial e Innovaciones Educativas (UNR). Posgraduado en Derecho y Política por la Universidad de Salamanca, España. Asesor legal del Ministerio de Educación de la Provincia de Santa Fe. Director de los Cursos Abiertos a la Comunidad de la Facultad de Derecho de la UNR. Ex asesor jurídico de bloque en la Honorable Cámara de Diputados de la Nación.

 

Salir de la versión móvil