Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 127
DESAFÍOS ÉTICOS Y PEDAGÓGICOS DEL USO DE INTELIGENCIA ARTIFICIAL EN
EL SISTEMA EDUCATIVO: UNA REVISIÓN SISTEMÁTICA
ETHICAL AND PEDAGOGICAL CHALLENGES OF USING ARTIFICIAL
INTELLIGENCE IN THE EDUCATION SYSTEM: A SYSTEMATIC REVIEW
Autores: ¹Edith Noemi Camacas Villamagua, ²Janeth Paola Verdezoto Barreto, ³Erika Hipatia
Peña Plaza,
4
Teresa Fátima Loaiza Veintimilla,
5
Franklin José Enríquez Barrionuevo.
¹ORCID ID:
https://orcid.org/0009-0006-1225-638X
²ORCID ID: https://orcid.org/0009-0002-2081-1647
3
ORCID ID:
https://orcid.org/0009-0008-0946-2224
4
ORCID ID:
https://orcid.org/0009-0001-3538-8215
5
ORCID ID:
https://orcid.org/0009-0001-8007-918X
¹E-mail de contacto: edithcamacas@hotmail.com
²E-mail de contacto: janethverdezoto92@gmail.com
³E-mail de contacto: erika151999@gmail.com
4
E-mail de contacto:
loaizateresa01@gmail.com
5
E-mail de contacto:
franklin_enriquez@hotmail.com
Afiliación:
1*2*3*4*5*
Investigador independiente, (Ecuador).
Artículo recibido: 27 de Octubre del 2025
Artículo revisado: 29 de Octubre del 2025
Artículo aprobado: 7 de Noviembre del 2025
¹Licenciada en Ciencias de la Educación, mención Educación Básica, graduada de la Universidad Tecnológica Equinoccial, (Ecuador).
Máster Universitario en Tecnología Educativa y Competencias Digitales, Universidad Internacional de La Rioja, (España). Docente con
15 años de experiencia laboral.
²Licenciada en Ciencias de la Educación Básica, graduada de la Universidad Tecnológica Indoamérica, (Ecuador). Docente con 15 años
de experiencia laboral.
³Licenciada en Educación Inicial, graduada de la Universidad Tecnológica Indoamérica, (Ecuador). Magíster en Innovación y Gestión
Educativa, Instituto de Educación Superior IEXE, (México). Docente con 10 años de experiencia laboral.
4
Profesora de Educación Básica a nivel Tecnológico, graduada del Instituto Superior Pedagógico Ciudad de Cariamanga, (Ecuador).
Licenciada en Pedagogía Alternativa, subárea Ciencias Naturales, Universidad Politécnica Territorial del Estado Mérida Kléber Ramírez,
(Venezuela). Magíster Scientiae en Pedagogía Crítica, Universidad Politécnica Territorial del Estado Mérida Kléber Ramírez,
(Venezuela). Docente con 15 años de experiencia laboral..
5
Ingeniero en Administración de Empresas y Negocios, graduado de la Universidad Tecnológica Indoamérica, (Ecuador). Máster
Universitario en Tecnología Educativa y Competencias Digitales, Universidad Internacional de La Rioja, (España). Docente con 8 años
de experiencia laboral.
Resumen
La incorporación de la inteligencia artificial en
la educación ha suscitado debates en torno a su
capacidad para transformar los procesos de
enseñanza y aprendizaje, así como a los riesgos
éticos y pedagógicos que emergen de su
implementación. El objetivo del estudio se
centró en en analizar los desafíos éticos y
pedagógicos del uso de la inteligencia artificial
en el sistema educativo mediante una revisión
sistemática. Se desarrolló una revisión
sistemática de carácter descriptivo y analítico,
guiada por el protocolo PRISMA 2020. Se
consultaron bases de datos académicas,
seleccionando publicaciones en español entre
2020 y 2025 que cumplieron criterios de rigor y
calidad metodológica. El análisis evidenció que
los principales desafíos éticos se centran en la
privacidad de datos, los sesgos algorítmicos y la
equidad en el acceso. En el ámbito pedagógico,
se identificaron la reconfiguración del rol
docente, la dependencia tecnológica y la
necesidad de alfabetización algorítmica. Los
hallazgos resaltan que la IA posee un potencial
transformador para personalizar el aprendizaje
y optimizar la gestión educativa, siempre que se
articule con principios éticos y pedagógicos
sólidos. La integración efectiva exige políticas
públicas inclusivas, formación docente
continua y gobernanza algorítmica orientada a
la equidad y la preservación de la dimensión
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 128
humana.
Palabras clave: Inteligencia artificial,
Educación, Ética, Pedagogía, Inclusión.
Abstract
The integration of artificial intelligence into
education has sparked debates about its
potential to transform teaching and learning
processes, as well as the ethical and pedagogical
risks that arise from its implementation. This
study aimed to analyze the ethical and
pedagogical challenges of using artificial
intelligence in the education system through a
systematic review. A descriptive and analytical
systematic review was conducted, guided by the
PRISMA 2020 protocol. Academic databases
were consulted, selecting Spanish-language
publications from 2020 to 2025 that met criteria
for rigor and methodological quality. The
analysis revealed that the main ethical
challenges center on data privacy, algorithmic
bias, and equity of access. In the pedagogical
sphere, the study identified the reconfiguration
of the teacher's role, technological dependence,
and the need for algorithmic literacy. The
findings highlight that AI has transformative
potential for personalizing learning and
optimizing educational management, provided
it is aligned with sound ethical and pedagogical
principles. Effective integration requires
inclusive public policies, ongoing teacher
training, and algorithmic governance focused
on equity and preserving the human dimension.
Keywords: Artificial intelligence, Education,
Ethics, Pedagogy, Inclusion.
Sumário
A integração da inteligência artificial na
educação tem suscitado debates sobre seu
potencial para transformar os processos de
ensino e aprendizagem, bem como sobre os
riscos éticos e pedagógicos decorrentes de sua
implementação. Este estudo teve como objetivo
analisar os desafios éticos e pedagógicos do uso
da inteligência artificial no sistema educacional
por meio de uma revisão sistemática. Foi
realizada uma revisão sistemática descritiva e
analítica, guiada pelo protocolo PRISMA 2020.
Foram consultadas bases de dados acadêmicas,
selecionando-se publicações em espanhol de
2020 a 2025 que atendessem aos critérios de
rigor e qualidade metodológica. A análise
revelou que os principais desafios éticos se
concentram na privacidade dos dados, no viés
algorítmico e na equidade de acesso. Na esfera
pedagógica, o estudo identificou a
reconfiguração do papel do professor, a
dependência tecnológica e a necessidade de
alfabetização algorítmica. Os resultados
destacam que a IA possui potencial
transformador para personalizar a
aprendizagem e otimizar a gestão educacional,
desde que esteja alinhada a sólidos princípios
éticos e pedagógicos. A integração efetiva
requer políticas públicas inclusivas, formação
continuada de professores e governança
algorítmica focada na equidade e na
preservação da dimensão humana.
Palavras-chave: Inteligência artificial,
Educação, Ética, Pedagogia, Inclusão.
Introducción
La irrupción de la inteligencia artificial (IA) en
el ámbito educativo ha abierto un horizonte de
posibilidades y controversias que obligan a
examinar críticamente sus implicaciones. Esta
tecnología, concebida inicialmente como un
recurso para automatizar procesos y optimizar
tareas, ha traspasado el terreno de la gestión
administrativa para situarse en el cleo de los
procesos pedagógicos, transformando las
metodologías de enseñanza, la evaluación del
aprendizaje y la interacción entre docentes y
estudiantes (Guzmán et al., 2025). En los
contextos escolares, la IA se presenta en forma
de tutores inteligentes, sistemas de
retroalimentación adaptativa o plataformas de
personalización del aprendizaje, recursos que
prometen potenciar el rendimiento académico y
diversificar las experiencias formativas (Molina
et al., 2025). El problema de investigación
emerge de la tensión entre los beneficios
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 129
atribuidos a la IA y los riesgos derivados de su
implementación (García, 2024). La cuestión
central se orienta hacia la posibilidad de
garantizar un uso ético y pedagógico de la IA
que preserve la dimensión humana de la
enseñanza. En este sentido, la pregunta que guía
este análisis puede formularse de la siguiente
manera: ¿cuáles son los desafíos éticos y
pedagógicos que plantea el uso de la
inteligencia artificial en el sistema educativo
contemporáneo?
La relevancia de este estudio reside en que el
avance acelerado de la IA no ha ido
acompañado de políticas y marcos normativos
que aseguren equidad, inclusión y respeto a la
privacidad de los datos. Los estudios recientes
advierten sobre el riesgo de profundizar la
brecha digital, reproducir sesgos algorítmicos y
reducir la autonomía docente (Acevedo et al.,
2025). Explorar esta problemática resulta
necesario para generar aportes que orienten la
formación docente, el diseño curricular y la
construcción de políticas educativas que
integren la tecnología sin deshumanizar el
aprendizaje. El examen de los desafíos éticos
permitirá construir lineamientos para
salvaguardar la integridad académica, mientras
que el análisis pedagógico favorecerá la
identificación de buenas prácticas de
implementación en las aulas (Peñafiel et al.,
2025). El objetivo general de este estudio
consiste en analizar los desafíos éticos y
pedagógicos del uso de la inteligencia artificial
en el sistema educativo mediante una revisión
sistemática, con el propósito de aportar
fundamentos teóricos y prácticos que permitan
orientar su integración responsable en los
entornos escolares y universitarios.
El empleo de inteligencia artificial en la
educación debe sustentarse en principios de
justicia, equidad e inclusión que garanticen
oportunidades de aprendizaje para todos los
estudiantes sin distinción de origen social,
cultural o geográfico. La IA posee un potencial
significativo para democratizar el acceso a
recursos pedagógicos, siempre que los
algoritmos sean diseñados desde una
perspectiva ética y transparentes en sus
procesos de decisión (Hernández y López,
2023). Estrada (2024) advierte que la equidad
implica evitar la exacerbación de brechas
educativas mediante políticas que aseguren
accesibilidad tecnológica en contextos
vulnerables, además sostiene, que la
personalización del aprendizaje mediada por IA
solo se traduce en inclusión real cuando se
acompaña de marcos normativos que protejan a
los estudiantes de sesgos discriminatorios.
Estos principios éticos se convierten en
lineamientos indispensables para legitimar la
adopción tecnológica en el aula, evitando
exclusiones implícitas y favoreciendo la justicia
educativa. La recopilación y procesamiento de
datos en sistemas educativos basados en IA
plantea un desafío ético central: la protección de
la privacidad y la seguridad de la información
de los estudiantes. El uso de plataformas
inteligentes exige políticas claras de manejo de
datos que incluyan consentimiento informado,
anonimización y transparencia en los fines de
recolección.
La vigilancia excesiva puede socavar la
autonomía estudiantil, por lo que resulta
fundamental establecer límites que resguarden
los derechos individuales, la falta de normativas
específicas en educación aumenta el riesgo de
vulneraciones, lo cual demanda políticas
institucionales sólidas de protección digital
(Bolaño y Duarte, 2024). Los algoritmos de IA
en la educación pueden reproducir o incluso
amplificar prejuicios sociales presentes en los
datos con los que son entrenados, los sesgos
algorítmicos tienen la capacidad de influir en
procesos de evaluación, predicción del
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 130
rendimiento o recomendaciones de aprendizaje,
afectando de manera desigual a estudiantes de
determinados contextos. La discriminación
digital ocurre cuando los sistemas educativos
reproducen desigualdades estructurales,
invisibilizando a grupos históricamente
marginados. En este escenario, la exigencia
ética radica en implementar auditorías
continuas y modelos de IA explicables, con el
propósito de garantizar procesos transparentes y
resultados equitativos en la práctica educativa
(Parra et al., 2024). La gobernanza algorítmica
constituye un eje prioritario en la discusión
sobre IA y educación, ya que regula la forma en
que los algoritmos son diseñados, aplicados y
supervisados. La UNESCO (2021) ha
establecido lineamientos éticos globales que
incluyen principios de transparencia,
sostenibilidad y equidad, que pueden servir
como referencia en sistemas educativos
(Cadena y Rojas, 2025).
A nivel nacional, Ecuador enfrenta el desafío de
construir normativas específicas que aseguren
un uso responsable de la IA en las aulas,
evitando improvisaciones en la adopción
tecnológica. Estrada (2024) enfatiza que la
ausencia de regulaciones claras favorece la
desigualdad en la implementación de recursos
digitales entre instituciones con diferentes
niveles de infraestructura. La gobernanza
algorítmica, entonces, debe traducirse en
políticas educativas vinculantes, auditorías
periódicas y mecanismos de rendición de
cuentas que salvaguarden los derechos
estudiantiles y aseguren un equilibrio entre
innovación pedagógica y ética pública (Álvarez
y Cepeda, 2024). La personalización del
aprendizaje constituye uno de los aportes más
significativos de la IA a la educación. Mediante
sistemas adaptativos, es posible ajustar
contenidos, ritmos y evaluaciones en función
del desempeño individual de cada estudiante,
esta capacidad fomenta la motivación y mejora
el rendimiento al ofrecer retroalimentación
inmediata y contextualizada. Si bien este
proceso potencia la inclusión, debe
acompañarse de una supervisión docente que
legitime y contextualice las recomendaciones
algorítmicas. El reto pedagógico consiste en
equilibrar la adaptatividad de la IA con la guía
humana, garantizando aprendizajes
significativos y éticamente sostenibles (Yépez
et al., 2024).
El despliegue intensivo de IA en la educación
plantea riesgos pedagógicos relacionados con la
dependencia tecnológica y la reducción de la
autonomía cognitiva de los estudiantes. El
aprendizaje automatizado puede limitar la
capacidad crítica si desplaza procesos
reflexivos hacia soluciones rápidas
proporcionadas por algoritmos y la
sobreexposición a retroalimentaciones
automáticas podría generar pasividad
intelectual y disminuir la creatividad. Frente a
este panorama, se plantea la necesidad de
integrar estrategias de pensamiento crítico y
metacognición en el uso de IA, preservando la
autonomía del sujeto en su proceso formativo
(Viteri, 2025). Los sistemas de tutoría
inteligente y los asistentes virtuales representan
uno de los campos más prometedores de la IA
aplicada a la educación. Estas herramientas
analizan el desempeño del estudiante y ofrecen
recomendaciones personalizadas que fortalecen
el aprendizaje autónomo y el acompañamiento
pedagógico, los tutores inteligentes actúan
como guías digitales que identifican fortalezas
y debilidades, sugiriendo recursos adecuados en
tiempo real. León (2024) sostiene que su
efectividad radica en la retroalimentación
inmediata, lo que incrementa la motivación
estudiantil. Al mismo tiempo, permiten
optimizar la interacción docente-estudiante, al
liberar al profesor de tareas repetitivas y
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 131
focalizarlo en la mediación crítica. Estos
sistemas contribuyen a la inclusión, al
incorporar funciones de accesibilidad como
subtítulos automáticos o lectura en voz,
ampliando el alcance educativo. Las
plataformas de aprendizaje adaptativo utilizan
algoritmos que ajustan los contenidos al ritmo y
estilo de aprendizaje de cada estudiante. Al
mismo tiempo, los sistemas de análisis
predictivo anticipan posibles dificultades
académicas, lo que facilita intervenciones
tempranas, estas tecnologías personalizan la
enseñanza mediante ajustes dinámicos en
función de la interacción del alumno,
mejorando la comprensión y el progreso
académico (Alvarado, 2025).
Al analizar patrones de desempeño, los
algoritmos identifican áreas de riesgo como la
deserción, permitiendo a las instituciones
implementar medidas preventivas. Sin
embargo, existe el desafío de equilibrar la
adaptabilidad con la equidad, evitando que los
modelos refuercen desigualdades preexistentes,
estas plataformas, bien reguladas, ofrecen un
potencial transformador para la mejora de la
calidad educativa (Corona y Gonález, 2025). La
inteligencia artificial ha optimizado procesos
administrativos y pedagógicos, liberando
tiempo para que los docentes se concentren en
actividades de mayor valor académico, entre las
aplicaciones más frecuentes se encuentran la
gestión de calificaciones, la asignación de
horarios y la atención a consultas mediante
chatbots, eesta automatización no solo reduce la
carga laboral del personal docente y
administrativo, sino que también agiliza la toma
de decisiones estratégicas en las instituciones
(Muirragui et al., 2025). En el ámbito
pedagógico, los algoritmos permiten evaluar de
manera automatizada el desempeño estudiantil,
garantizando eficiencia en el manejo de grandes
volúmenes de datos. No obstante, el riesgo ético
emerge cuando la automatización sustituye el
criterio humano en procesos donde la
subjetividad educativa resulta fundamental.
Por su parte, la inteligencia artificial aplicada a
la creación de contenidos ha posibilitado el
desarrollo de materiales educativos dinámicos e
interactivos que responden a la diversidad de
estilos de aprendizaje estas tecnologías
permiten elaborar simulaciones, entornos de
realidad aumentada y recursos multimedia
adaptados a contextos específicos (Villegas y
Sepúlveda, 2024). La IA generativa ofrece
ventajas en la elaboración de guías de estudio,
cuestionarios y material de apoyo, favoreciendo
la innovación didáctica, si se implementan con
criterios éticos, enriquecen la enseñanza al
ofrecer experiencias inmersivas y atractivas
para los estudiantes, sin embargo, se requiere
supervisión docente para garantizar la
coherencia pedagógica y evitar una
dependencia exclusiva de los algoritmos en la
construcción del conocimiento. El impacto de la
IA en las metodologías de enseñanza y
evaluación se manifiesta en el tránsito hacia
modelos más personalizados, dinámicos y
basados en evidencias, los sistemas inteligentes
permiten monitorear en tiempo real la
interacción de los estudiantes con los
contenidos, facilitando ajustes inmediatos en las
estrategias didácticas. Las evaluaciones
automatizadas ofrecen rapidez y precisión,
aunque deben complementarse con la
valoración cualitativa del docente (Salavarría et
al., 2025).
El desafío consiste en evitar la
deshumanización del aprendizaje, manteniendo
el equilibrio entre innovación tecnológica y
mediación pedagógica. La transformación
metodológica derivada del uso de IA debe
orientarse a promover el pensamiento crítico, la
creatividad y la colaboración, más allá de la
simple eficiencia técnica. La incorporación de
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 132
inteligencia artificial en la educación exige un
delicado equilibrio entre la innovación
tecnológica y la preservación de la dimensión
humana del aprendizaje. La eficiencia de los
algoritmos permite personalizar la enseñanza y
agilizar procesos, sin embargo, existe el riesgo
de que se diluyan aspectos esenciales como la
empatía, la creatividad y la interacción social, la
IA debe ser concebida como complemento
pedagógico y no como sustituto del docente, ya
que el proceso formativo requiere mediación
crítica y acompañamiento humano (Cadena y
Rojas, 2025). La necesidad de promover un
modelo de colaboración humano-IA que
potencie la enseñanza sin deshumanizarla. En
esta línea, Tumbaco et al. (2024), plantea que la
preservación de valores humanistas es
indispensable para evitar una visión
instrumental de la educación, de este modo, la
tecnología debe orientarse a fortalecer la
agencia docente y la autonomía estudiantil.
La formación docente constituye un eje
estratégico en la implementación responsable
de la inteligencia artificial en la educación, no
basta con proveer infraestructura tecnológica,
es fundamental capacitar a los educadores en
competencias digitales y en alfabetización
algorítmica que les permita comprender,
evaluar y supervisar las herramientas utilizadas
y la capacitación es uno de los desafíos más
urgentes para garantizar la adopción crítica de
la IA. Peñafiel et al. (2025) sostienen que los
docentes deben asumir un rol dual como
usuarios y supervisores de los sistemas
algorítmicos, lo cual demanda formación
especializada, integrar programas de
actualización permanente que incluyan
módulos de ética digital, sesgos algorítmicos y
uso pedagógico de la IA. Estos modelos
formativos no solo favorecen la apropiación
tecnológica, sino que también fortalecen la
autonomía profesional del docente frente a las
decisiones automatizadas. El desarrollo de
políticas públicas y marcos regulatorios resulta
crucial para asegurar que el uso de la
inteligencia artificial en la educación responda
a criterios éticos y pedagógicos, las
preocupaciones sobre privacidad, sesgos
algorítmicos y brechas digitales requieren
normativas claras que regulen la recopilación,
almacenamiento y utilización de datos
educativos. Peñafiel et al. (2025) enfatizan la
necesidad de políticas inclusivas que garanticen
acceso equitativo a estas tecnologías, evitando
que se conviertan en un factor de exclusión.
Alvarez et al. (2025) subrayan que, en ausencia
de regulaciones robustas, las instituciones
educativas quedan expuestas a riesgos de
vigilancia excesiva y uso indebido de
información sensible. En Ecuador, el debate
emergente exige diseñar lineamientos
nacionales que integren la perspectiva de
equidad, ética y sostenibilidad, articulados con
políticas regionales y globales, dichos marcos
regulatorios deben priorizar el interés superior
del estudiante y la transparencia en el uso de
algoritmos.
Materiales y Métodos
El presente trabajo correspondió a una revisión
sistemática de carácter descriptivo y analítico.
Este tipo de estudio permitió compilar, evaluar
y sintetizar de manera rigurosa la literatura
científica disponible sobre los desafíos éticos y
pedagógicos derivados de la implementación de
la inteligencia artificial en el sistema educativo
(Danel y Santa María, 2024). La finalidad fue
identificar patrones conceptuales,
problemáticas recurrentes y propuestas
normativas o pedagógicas relevantes, con el
propósito de establecer un panorama integral
que aporte a la comprensión crítica de este
fenómeno en distintos niveles de enseñanza. El
proceso metodológico se desarrolló siguiendo
los lineamientos del protocolo Preferred
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 133
Reporting Items for Systematic Reviews and
Meta-Analyses PRISMA (2020) que
proporcionó una estructura formal para cada
etapa de la revisión . Este marco facilitó la
transparencia en la identificación de artículos, la
aplicación de filtros de inclusión y exclusión, y
la síntesis final de resultados, asegurando
consistencia en la interpretación de la evidencia.
La búsqueda documental se llevó a cabo en
bases de datos académicas de alto impacto,
entre ellas, Dialnet, Redalyc, Latindex y Scielo.
Se estableció como criterio temporal de
inclusión el periodo comprendido entre 2020 y
2025 y solo se consideraron artículos
publicados en español, revisados por pares, con
acceso completo al texto y con estándares
metodológicos verificables. La estrategia de
búsqueda se diseñó con descriptores
normalizados y operadores booleanos,
empleando combinaciones como: (“inteligencia
artificial” AND “educación” AND “ética”),
(“artificial intelligence” AND “pedagogical
challenges”), (“AI” AND “ethics in
education”). Dentro de los criterios de
inclusión:
Estudios empíricos o teóricos sobre ética y
pedagogía en la aplicación de la IA en
educación.
Publicaciones que examinaran riesgos
éticos (privacidad, sesgos, equidad) y/o
retos pedagógicos (rol docente,
personalización, dependencia tecnológica).
Artículos revisados por pares y de acceso
abierto.
Documentos publicados entre 2020 y 2025
enespañol.
o Criterios de exclusión
Trabajos que abordaran IA en ámbitos no
educativos.
Revisiones narrativas sin sistematización
documental.
Publicaciones sin acceso completo al texto.
Estudios duplicados entre bases de datos.
Documentos sin claridad metodológica o
con escasa validez interna.
En la búsqueda se aplicaron filtros automáticos
por año de publicación, idioma y tipo de
documento. Los duplicados fueron eliminados
mediante el gestor Mendeley, la revisión de
títulos y resúmenes estuvo a cargo de un
evaluador independiente, quien aplicó los
criterios de inclusión y exclusión. Los artículos
seleccionados fueron leídos en su totalidad para
confirmar elegibilidad, cada fase se documentó
en un diagrama de flujo PRISMA, asegurando
transparencia, reproducibilidad y trazabilidad
(Yánez et al., 2021). El análisis metodológico se
basó en el Check List PRISMA 2020, ajustado
a las necesidades de la investigación. Este
instrumento permitió verificar aspectos como
claridad del objetivo, criterios de selección,
transparencia del proceso de búsqueda, control
de sesgo y consistencia en la presentación de
resultados (Page et al., 2021).
Figura 1: Diagrama de Flujo - PRISMA
Records identified from*:
Databases (n =5 )
Registers (n = 185)
Records removed before
screening:
Duplicate records removed
(n = 81 )
Records marked as
ineligible by automation
tools (n = 15 )
Records removed for
Records screened
(n = 64)
Records excluded**
(n = 22)
Reports sought for retrieval
(n = 42)
Reports not retrieved
(n = 19 )
Reports assessed for
eligibility (n = 23)
Reports excluded:
Duplicidad (n = 4)
Criterio de inclusion
(n = 7)
Studies included in review
(n = 12)
Identification of studies via databases and registers
Identification
Screening
Included
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 134
Resultados y Discusión
Los hallazgos mostraron que los desafíos éticos
más relevantes del uso de la inteligencia
artificial en educación se relacionan con la
privacidad de los datos, los sesgos algorítmicos
y la falta de equidad en el acceso a las
tecnologías. En el plano pedagógico, se
evidenció la necesidad de reconfigurar el rol
docente frente a la automatización, el riesgo de
dependencia tecnológica y la importancia de
fortalecer la alfabetización digital y algorítmica,
se constató que la ausencia de marcos
normativos y programas de formación
especializada constituye una limitación crítica
para garantizar una adopción responsable.
Tabla 1. Desafíos y lineamientos sobre la IA en educación
Desafíos éticos en el sistema educativo
Desafíos pedagógicos en el sistema educativo
Lineamientos para una integración responsable
Señalan que la equidad, la privacidad de datos y la transparencia son
retos éticos centrales.
La IA puede amplificar desigualdades sociales y generar dependencia
tecnológica si no existen marcos de control ético adecuados.
Plantean que el rol del docente debe transformarse para
mantener la interacción humana.
El aprendizaje personalizado no puede sustituir la guía crítica
y ética que aporta el educador en la formación integral del
estudiante.
Recomiendan políticas educativas que aseguren auditorías de
equidad, protección de datos y diseños algorítmicos libres de
sesgos.
La implementación debe estar acompañada de responsabilidad
compartida entre instituciones y desarrolladores.
Identifica como desafíos éticos la privacidad, los sesgos algorítmicos
y la transparencia en la toma de decisiones.
Advierte que delegar decisiones académicas a sistemas de IA puede
poner en riesgo la autonomía educativa.
Señala que la IA exige redefinir la función docente. Si bien
automatiza tareas, no puede sustituir la interacción pedagógica
ni el acompañamiento humano necesarios para el aprendizaje
colaborativo y crítico.
Propone lineamientos de capacitación docente continua,
auditorías periódicas de algoritmos y marcos normativos claros
sobre protección de datos.
Sugiere también fomentar participación activa de docentes en la
adopción tecnológica.
Advierte que los entornos digitales impulsados por IA requieren
garantizar justicia y responsabilidad.
Los riesgos éticos provienen de la opacidad de los algoritmos y del
posible uso indebido de información personal sensible.
Resalta que los modelos pedagógicos deben adaptarse a un
contexto donde la IA introduce nuevas formas de evaluación
y aprendizaje inmersivo.
El riesgo es en una dependencia excesiva que limite la
reflexión crítica.
Establece que las instituciones deben desarrollar marcos
pedagógicos innovadores, acompañados de ética digital y
competencias críticas en estudiantes y docentes, fomentando así
un equilibrio entre innovación y dimensión humanista.
Argumenta que los riesgos éticos incluyen la manipulación de datos
y la concentración de poder tecnológico, lo cual puede afectar la
confianza y la autonomía del estudiantado en contextos vulnerables.
Identifica que la motivación y la interacción social se ven
afectadas por el uso intensivo de IA.
El desafío es mantener el aprendizaje colaborativo, evitando
un aislamiento derivado del uso excesivo de plataformas
automatizadas.
Propone políticas inclusivas que integren IA con metodologías
híbridas, asegurando accesibilidad equitativa y fortaleciendo el
papel mediador del docente en contextos culturalmente diversos.
Señalan que la confianza en la IA depende de una regulación que
limite sesgos y preserve la privacidad.
El riesgo ético está en aceptar algoritmos como “neutros” cuando
pueden replicar discriminaciones sociales.
Indican que la IA puede apoyar a estudiantes con
discapacidad, pero el reto pedagógico es garantizar que estas
herramientas no sustituyan la interacción personal ni reduzcan
la inclusividad real en los entornos educativos.
Recomiendan la creación de marcos normativos flexibles y
transparentes que incluyan evaluaciones regulares, fomentando el
acceso inclusivo a tecnologías y evitando su concentración en
élites educativas o económicas.
Señaló tensiones entre transparencia algorítmica, rendición de cuentas
y protección de la privacidad estudiantil.
Advirtió sobre sesgos en datos, vigilancia invasiva y ampliación de
brechas, exigiendo equidad, accesibilidad y mecanismos claros de
responsabilidad institucional frente a decisiones automatizadas.
Subrayó riesgos de descontextualización didáctica,
dependencia de retroalimentación automática y
desplazamiento del juicio docente.
Planteó el desafío de sostener autonomía del estudiante y
agencia crítica cuando los entornos adaptativos parametrizan
itinerarios y evaluaciones con criterios opacos.
Propuso estándares de transparencia, políticas robustas de
privacidad, capacitación docente específica y participación
estudiantil en el diseño.
Recomendó marcos éticos institucionales, auditorías periódicas y
accesibilidad universal para evitar exclusiones tecnológicas y
reforzar la centralidad pedagógica.
Identificaron sesgo algorítmico, privacidad y uso secundario de datos
como núcleos críticos, junto con la ausencia de normativas claras.
Advirtieron sobre delegación acrítica de decisiones y necesidad de
XAI para legitimar intervenciones educativas mediadas por modelos.
Señalaron retos en evaluación abierta, reconocimiento de
matices creativos y riesgo de homogeneización curricular por
plataformas adaptativas.
Insistieron en mantener el juicio profesional para equilibrar
eficiencia con interpretación contextual de evidencias de
aprendizaje.
Recomendaron políticas y estándares institucionales alineados
con marcos internacionales, clasificación de riesgos y monitoreo.
Sugirieron fortalecer formación docente, gobernanza de datos y
evaluación de impacto para escalar adopciones con garantías de
equidad e inclusión.
Enfatizaron el dilema entre innovación y derechos: integridad
académica, sesgos, privacidad y uso indebido de datos de menores.
Alertaron sobre brechas de acceso y asimetrías de poder proveedor-
institución en la definición de fines educativos de la IA.
Plantearon riesgos de automatización acrítica de tareas
pedagógicas, disminución del pensamiento crítico y
creatividad, y desalineación entre propuestas generativas y
objetivos curriculares.
Visibilizaron la necesidad de curaduría docente sostenida y
diseño didáctico intencional.
Propusieron lineamientos centrados en derechos, con normativas
institucionales, políticas públicas y alfabetización algorítmica
docente-estudiantil.
Destacaron inversión en infraestructura, protocolos de protección
de datos y co-creación pedagógica que preserve la dimensión
humana del proceso formativo.
Describieron como éticamente problemáticos el uso extensivo de
analíticas sin consentimiento informado claro, la precariedad de
seguridad en plataformas y la opacidad contractual.
Advirtieron que la adopción apresurada puede consolidar
discriminaciones preexistentes en contextos escolares.
Indicaron tensiones entre personalización y segmentación
excesiva, posibles rumbos instruccionales estrechos y
retroalimentaciones que no capturan procesos metacognitivos.
Señalaron demanda de nuevas competencias docentes para
orquestar datos, contenidos y acompañamiento en tiempo real.
Sugirieron políticas institucionales de datos, guías de uso docente-
estudiantil, comités éticos y evaluación continua de sesgos.
Reforzaron la necesidad de diseño universal para el aprendizaje y
de integrar la IA como apoyo, no sustituto, del encuentro
pedagógico.
Expuso que sesgos y discriminación pueden emerger desde datasets y
objetivos comerciales ajenos a fines educativos.
Resaltó la obligación de justicia, inclusión y no maleficencia, con
especial atención a contextos vulnerables y a la preservación de la
dignidad estudiantil.
Argumentó que la eficacia tecnológica no garantiza
pertinencia pedagógica: sin mediación docente, la IA puede
devaluar la indagación, el trabajo colaborativo y la autonomía.
Propuso integrar criterios de evaluación formativa y ética de
la creatividad académica.
Propuso alfabetización ética y algorítmica, revisión de
proveedores, consentimientos informados, anonimato de datos y
auditorías de impacto.
Recomendó incorporar cláusulas explicativas, de accesibilidad y
salvaguardas para poblaciones en desventaja.
Señalan que la IA en educación superior enfrenta riesgos asociados a
la privacidad, la transparencia algorítmica y la equidad en el acceso.
La carencia de marcos regulatorios claros en América Latina limita la
protección de los datos estudiantiles y genera incertidumbre ética en
la implementación.
Plantean que los sistemas de tutoría inteligente y plataformas
adaptativas exigen una profunda reconfiguración del rol
docente.
El profesorado debe adquirir competencias digitales y
pedagógicas para guiar entornos mediados por IA, evitando
que la automatización sustituya la dimensión humana del
aprendizaje.
Recomiendan políticas educativas claras, inversión en formación
docente y gobernanza algorítmica ética.
La integración debe basarse en inclusión y sostenibilidad,
articulando normas nacionales con los ODS para asegurar calidad
y equidad educativa.
Indican que los riesgos éticos se concentran en la privacidad de datos
estudiantiles y en los sesgos algorítmicos.
La falta de regulación sólida puede derivar en discriminación digital
y vigilancia excesiva, lo que compromete la confianza en el uso de IA
educativa.
Argumentan que la resistencia docente, la dependencia
tecnológica y las brechas digitales representan obstáculos
pedagógicos.
Si no se consideran las realidades locales, la IA puede
profundizar desigualdades y limitar aprendizajes
significativos, especialmente en comunidades vulnerables.
Proponen un modelo de integración gradual que priorice la
colaboración humano-IA.
Sugieren fortalecer la formación en competencias digitales,
diseñar marcos éticos y asegurar políticas públicas inclusivas que
adapten la innovación a contextos regionales y garanticen
equidad.
Fuente: elaboración propia
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 135
El análisis de los hallazgos sintetizados en las
tablas refleja que los desafíos éticos vinculados
a la aplicación de la inteligencia artificial en la
educación guardan coherencia con lo expuesto
en el desarrollo teórico de las variables,
especialmente en lo referente a la justicia, la
privacidad y la equidad. Acevedo et al. (2025)
enfatizaron que la carencia de marcos
regulatorios en América Latina amplifica
riesgos de vulneración de datos y de
transparencia en la toma de decisiones, lo que
coincide con la dimensión ética señalada en la
fundamentación teórica sobre la necesidad de
gobernanza algorítmica sólida propuesta por
Cadena y Rojas, (2025). En la misma línea,
Peñafiel et al. (2025), sostuvieron que los
sesgos algorítmicos y la vigilancia excesiva
representan amenazas directas a la confianza
institucional, corroborando la perspectiva de
que la ética en IA educativa debe priorizar la
protección de derechos fundamentales y la
reducción de desigualdades. En relación con los
desafíos pedagógicos, Aparicio y Cortés (2024)
exponen que existe tensión entre innovación y
preservación de la dimensión humana en los
procesos de enseñanza-aprendizaje. Viteri,
(2025), destacó que la resistencia docente, la
dependencia tecnológica y las brechas digitales
como obstáculos que comprometen la
efectividad pedagógica de la IA. Este
planteamiento se articula con lo descrito por
Alvarado (2025) sobre la reconfiguración del
rol docente, donde se argumenta que la
mediación crítica y la capacidad de orientar el
aprendizaje no pueden ser reemplazadas por
algoritmos.
De igual modo, León (2024) advierte que el uso
de sistemas de tutoría inteligente y plataformas
adaptativas exige un cambio profundo en las
competencias profesionales, lo cual coincide
con la necesidad, planteada en la dimensión
pedagógica, de fortalecer la alfabetización
algorítmica y las competencias digitales de los
educadores. Respecto a los lineamientos,
Estrada (2024) refuerza la importancia de
establecer políticas educativas inclusivas y
regulaciones éticas que acompañen el proceso
de integración de la IA. Bolaño y Duarte
(2024).propusieron la creacion de políticas
claras, inversión en formación docente y
gobernanza algorítmica, lo que se conecta con
lo indicado en la fundamentación teórica sobre
la urgencia de articular lineamientos
internacionales y nacionales para garantizar
equidad y sostenibilidad. Por su parte, Tumbaco
et al. (2024) recomendaron un modelo de
integración gradual basado en la colaboración
humano-IA, lo cual se relaciona directamente
con la necesidad de preservar la agencia docente
y el carácter humanizador de la educación.
Estos aportes empíricos se consolidan como las
bases teóricas que coinciden en destacar la IA
como una herramienta con potencial
transformador, siempre que su implementación
esté mediada por principios éticos y
pedagógicos. El desafío no reside únicamente
en adoptar tecnologías, sino en generar marcos
de actuación que garanticen que la inteligencia
artificial complemente, y no sustituya, la misión
formativa de la educación contemporánea.
Conclusiones
El estudio sobre los desafíos éticos y
pedagógicos que plantea la incorporación de la
inteligencia artificial en el sistema educativo
permitió reconocer la necesidad de superar
visiones instrumentales de la tecnología y
situarla en un plano de reflexión crítica. La IA,
más allá de sus beneficios operativos, revela
tensiones estructurales que obligan a cuestionar
la capacidad de las instituciones para garantizar
un equilibrio entre innovación, equidad y
preservación de la dimensión humana del
aprendizaje, no se trata únicamente de evaluar
los riesgos asociados a la privacidad o a la
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 136
dependencia tecnológica, sino de interrogar los
fundamentos mismos de la educación en un
escenario donde los algoritmos intervienen en
procesos formativos y decisionales. Desde una
perspectiva analítica, resulta evidente que la
discusión sobre ética y pedagogía en torno a la
IA no puede abordarse de forma fragmentada.
La ética sin una traducción pedagógica concreta
corre el riesgo de quedarse en discursos
normativos, mientras que la pedagogía sin
principios éticos sólidos puede derivar en
prácticas deshumanizantes, la integración de
ambos enfoques configura un campo de
investigación y acción donde convergen la
teoría crítica, la innovación educativa y las
políticas públicas, lo que demanda una visión
transdisciplinaria. La reflexión crítica apunta
también a reconocer la centralidad del docente
y del estudiante como actores insustituibles en
la construcción del conocimiento, la IA no debe
ser comprendida como sustituto, sino como un
mediador que amplifica posibilidades y al
mismo tiempo obliga a replantear competencias
profesionales, prácticas institucionales y
modelos de evaluación, la construcción de
marcos de gobernanza algorítmica y de
alfabetización digital debe orientarse, entonces,
a preservar la autonomía, la creatividad y la
justicia educativa. En síntesis, los hallazgos
evidencian que la IA en la educación constituye
una oportunidad transformadora siempre que su
integración sea ética, pedagógica y humanizada,
el verdadero desafío permanece en que las
decisiones políticas, institucionales y
académicas aseguren que la tecnología refuerce
la misión formativa y no la diluya en procesos
automatizados carentes de sentido.
Referencias Bibliográficas
Acevedo, M., Cabezas, N., La Serna, P., &
Araujo, S. (2025). Desafíos y oportunidades
de la inteligencia artificial en la educación
superior latinoamericana: Una revisión
sistemática de la literatura. Revista Inve,
6(1), 110.
https://zenodo.org/records/15508755
Alvarado, A. (2025). Inteligencia artificial y
aprendizaje personalizado: Adaptación de
contenidos educativos para potenciar el
desarrollo integral en primero de básica.
Revista Científica de Salud y Desarrollo
Humano, 6(1), 15301553.
https://doi.org/10.61368/r.s.d.h.v6i1.545
Álvarez, D., Vargas, J., Amaguaña, E., Chang,
R., Constante, D., & Álava, M. (2025).
Neurodesarrollo y juego sensorial:
Estrategias pedagógicas para potenciar la
cognición temprana en la educación inicial.
Vitalia Revista Científica y Académica, 6(2),
419443.
https://doi.org/10.61368/r.s.d.h.v6i2.609
Álvarez, J. C., & Cepeda, L. (2024). El impacto
de la inteligencia artificial en la enseñanza y
el aprendizaje. LATAM Revista
Latinoamericana de Ciencias Sociales y
Humanidades, 5(3), 599610.
https://doi.org/10.56712/latam.v5i3.2061
Aparicio, O., & Cortés, M. (2024). Desafíos
éticos de la inteligencia artificial en la
personalización del aprendizaje. Revista
Interamericana de Investigación Educación
y Pedagogía RIIEP, 17(2), 377392.
https://doi.org/10.15332/25005421
Bolaño, M., & Duarte, N. (2024). Una revisión
sistemática del uso de la inteligencia
artificial en la educación. Revista
Colombiana de Cirugía, 39(1), 5163.
https://doi.org/10.30944/20117582.2365
Cadena, E., & Rojas, E. (2025). Inteligencia
artificial en la educación: Análisis de sus
aplicaciones, beneficios y desafíos éticos.
Digital Publisher CEIT, 10(3), 931945.
https://doi.org/10.33386/593dp.2025.3.3230
Clemente, A., Cabello, A., & Añorve, E.
(2024). La inteligencia artificial en la
educación: Desafíos éticos y perspectivas
hacia una nueva enseñanza. LATAM Revista
Latinoamericana de Ciencias Sociales y
Humanidades, 5(6), 464472.
https://doi.org/10.56712/latam.v5i6.3019
Corona, B., & González, S. (2025). Desafíos
tecnológicos, éticos y pedagógicos en la
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 137
adopción de la inteligencia artificial
generativa en la educación superior: Un
análisis crítico. Ciencia y Reflexión, 4(1),
14351453.
https://doi.org/10.70747/cr.v4i1.189
Danel, O., & Santa María, C. (2024).
Metodología de la investigación.
https://doi.org/10.13140/RG.2.2.33341.478
49
Estrada, A. (2024). La ética y responsabilidad
de la inteligencia artificial en la educación:
Desafíos y oportunidades. Polo de
Conocimiento, 9(12), 21602173.
https://doi.org/10.23857/pc.v9i12.8609
García, F. (2024). Inteligencia artificial
generativa y educación: Un análisis desde
múltiples perspectivas. Education in the
Knowledge Society (EKS), 25, 125.
https://doi.org/10.14201/eks.31942
Guzmán, V., Delgado, I., Santana, P.,
Cervantes, V., Fajardo, S., & Rodríguez, I.
(2025). El cerebro social como base de la
inteligencia artificial. Biología y Sociedad,
8(16), 118123.
https://doi.org/10.29105/bys8.16-198
Hernández, A., & López, D. (2023).
Gobernanza y retos de la inteligencia
artificial en el derecho a la educación: El rol
del docente en la era digital. Política,
Globalidad y Ciudadanía, 9(18), 247239.
https://doi.org/10.29105/rpgyc9.18-352
León, I. (2024). La enseñanza de la matemática
universitaria de la mano de la inteligencia
artificial. Ciencia Latina Revista Científica
Multidisciplinar, 8(6), 1043410446.
https://doi.org/10.37811/cl_rcm.v8i6.15723
Molina, J., Lucio, A., & Chicaiza, D. (2025).
Uso ético pedagógico de la inteligencia
artificial en educación. Ciencia Latina
Revista Científica Multidisciplinar, 9(4),
1145811477.
https://doi.org/10.37811/cl_rcm.v9i3.19082
Muirragui, V., Garzón, J., Moreira, A., &
Martínez, E. (2025). Impacto del uso de la
inteligencia artificial en la educación
universitaria: Revisión sistemática.
Recimundo, 9(2), 349360.
https://doi.org/10.26820/recimundo/9.(2).ab
ril.2025.349-360
Otero, S., Revelo, S., Freire, K., Zambrano, S.
M., & Vicente, P. (2024). Personalización
de cuentos interactivos mediante la
aplicación de inteligencia artificial basados
en la producción literaria de docentes y
estudiantes.
https://doi.org/10.22533/at.ed.567240104
Page, M., McKenzie, J., Bossuyt, P., Boutron,
I., Hoffmann, T., Mulrow, C., Shamseer, L.,
Tetzlaff, J., Akl, E., Brennan, S., Chou, R.,
Glanville, J., Grimshaw, J., Hróbjartsson, A.,
Lalu, M., Lin, T., Loder, E., Mayo, E.,
McDonald, S., & Moher, D. (2021). The
PRISMA 2020 statement: An updated
guideline for reporting systematic reviews.
Revista Española de Cardiología, 74(9),
790799.
https://doi.org/10.1016/j.recesp.2021.06.016
Parra, M., Trujillo, J., Álvarez, D., Arias, A., &
Santillán, E. (2024). El impacto de la
inteligencia artificial en la educación.
Revista Científica Retos de la Ciencia, 1(4),
169181.
https://doi.org/10.53877/rc.8.19e.202409.14
Peñafiel, E., Pacho, G., Yungán, B., Estrada, S.
N., Suárez, I., & Valdivieso, C. (2025). La
inteligencia artificial en la educación:
Desafíos y oportunidades. South Florida
Journal of Development, 6(5), e5219.
https://doi.org/10.46932/sfjdv6n5-006
Prisma. (2020). Elementos de reporte
preferidos para revisiones sistemáticas y
metaanálisis (PRISMA 2020).
https://www.prisma-statement.org/
Salavarría, P., Costa, C., Lara, V., & Calle, D.
(2025). Del aula tradicional al aula
inteligente: Integración de la inteligencia
artificial en los modelos pedagógicos
emergentes. Revista Científica
Multidisciplinaria HEXACIENCIAS, 5(10),
278308.
https://doi.org/0009-0005-5052-
6486
Tumbaco, A., Montenegro, G., Rocha, B., &
Roca, E. (2024). Desarrollo y evaluación de
competencias digitales docentes para la
transformación educativa en la era de la
disrupción tecnológica. Ciencia Latina
Revista Científica Multidisciplinar, 9(3),
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 11
Noviembre del 2025
Página 138
361374. https://orcid.org/0000-0001-6493-
1072
Villegas, A., & Sepúlveda, C. (2024). Creación
de cuentos digitales con apoyo de
inteligencia artificial. Revista
Iberoamericana de Tecnología en
Educación y Educación en Tecnología, 37,
e13.
https://doi.org/10.24215/18509959.37.e13
Viteri, G. (2025). Impulsando la fidelidad del
cliente con inteligencia artificial en el sector
comercial: Un análisis sistemático. Ciencia
Unemi, 18(47), 1830.
https://doi.org/10.29076/issn.2528-
7737vol18iss47.2025pp18-30p
Yánez, C., Aguilera, R., Fuentes, H., & Videla,
Á. (2021). Importancia de la directriz
PRIMAS. Nutrición Hospitalaria, 38(3),
677678. https://doi.org/10.20960/nh.04616
Yépez, L., Jirón, T., Rumbaut, D., & Jurado, G.
(2024). El papel de la inteligencia artificial
en la personalización de la educación.
Magazine de las Ciencias: Revista de
Investigación e Innovación, 9(3), 3146.
https://doi.org/10.33262/rmc.v9i3.3160
Esta obra está bajo una licencia de
Creative Commons Reconocimiento-No Comercial
4.0 Internacional. Copyright © Edith Noemi
Camacas Villamagua, Janeth Paola Verdezoto
Barreto, Erika Hipatia Peña Plaza, Teresa Fátima
Loaiza Veintimilla, Franklin José Enríquez
Barrionuevo.