Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 264
RIESGOS EN EL USO DE INTELIGENCIA ARTIFICIAL GENERATIVA EN LA
EDUCACIÓN SUPERIOR
RISKS IN THE USE OF GENERATIVE ARTIFICIAL INTELLIGENCE IN HIGHER
EDUCATION
Autores: ¹Joselyn Dayanira Romero Cedeño, ²María José-Alvarez Peñafiel, ³Geovanny Danilo-
Fajardo Iguasnia y
4
Jeferson Dario Crespo Asqui.
¹ORCID ID: https://orcid.org/0009-0000-2500-8701
²ORCID ID: https://orcid.org/0009-0000-4097-4772
²ORCID ID: https://orcid.org/0009-0001-2386-9775
4
ORCID ID: https://orcid.org/0000-0002-0646-2068
¹E-mail de contacto: jromerc25@unemi.edu.ec
²E-mail de contacto: malvarezp15@unemi.edu.ec
³E-mail de contacto: gfajardoi@unemi.edu.ec
4
E-mail de contacto: jcrespoa3@unemi.edu.ec
Afiliación: ¹*²*³*
4
*Facultad de Posgrados, Escuela de Educación. Maestría en Educación con mención en Docencia e Investigación en
Educación superior por la Universidad Estatal de Milagro, (Ecuador).
Artículo recibido: 17 de Marzo del 2026
Artículo revisado: 19 de Marzo del 2026
Artículo aprobado: 25 de Marzo del 2026
¹Licenciatura en Educación Inicial de la Universidad de las Fuerzas Armadas, (Ecuador) con dos años de experiencia laboral. Estudiante
de la carrera de Derecho, Universidad Politécnica Salesiana, (Ecuador). Maestrante de la Maestría en Educación, con mención en Docencia
e Investigación en Educación superior, Universidad Estatal de Milagro, (Ecuador).
²Licenciatura en Ciencias de la Educación, mención Profesora Parvularia egresada de la Universidad Central del Ecuador, (Ecuador) con
6 años de experiencia laboral. Maestrante de la maestría en Educación, con mención en Docencia e Investigación en Educación Superior,
Universidad Estatal de Milagro, (Ecuador).
³Médico Cirujano, egresado de la Universidad de las Américas, (Ecuador) en el año 2019, con 7 años de experiencia laboral. Magíster en
Seguridad y Salud Ocupacional, egresado de la Universidad Tecnológica Israel, (Ecuador) en el 2022. Maestrante de la Maestría en
Educación, con mención en Docencia e Investigación en Educación Superior, Universidad Estatal de Milagro, (Ecuador).
4
Licenciado en Educación, profesor de Biología, Química y Laboratorio por la Universidad Nacional de Chimborazo, (Ecuador) con 8
años de experiencia en Educación Media y Superior. Máster Universitario en formación y perfeccionamiento del profesorado, especialidad
en Biología por la Universidad de Salamanca - España y magíster en educación con mención en Pedagogía en Entornos Digitales por la
Universidad Bolivariana del Ecuador; doctorando del programa de Equidad e Innovación en Educación en la Universidad de Oviedo -
España, Doctorando en la Universidad de Querétaro, (México).
Resumen
Este estudio tiene como objetivo analizar los
riesgos académicos del uso de la inteligencia
artificial generativa mediante un análisis de
percepciones de estudiantes y docentes para la
comprensión de sus implicaciones en la
formación de estudiantes de educación superior
en la Universidad de las Fuerzas Armadas
ESPE. El estudio tiene un enfoque mixto, con
alcance exploratorio y diseño no experimental
de corte transversal, se utilizó una muestra de
90 estudiantes y 10 docentes. Para la
recolección de datos se aplicaron encuestas
estructuradas a estudiantes y entrevistas
semiestructuradas a docentes, validadas a través
de juicio de expertos. Los resultados obtenidos
en este estudio evidencian los riesgos en las
dimensiones educativa, ética, tecnológica y
social, siendo la dimensión social la más
afectada. A través de una triangulación de
resultados se constata con otros autores que la
inteligencia artificial generativa tiene un
impacto multidimensional. Los hallazgos
principales revelaron que la inteligencia
artificial generativa optimiza el proceso
pedagógico, no obstante, su uso irresponsable
genera dependencia, debilita el pensamiento
crítico, deshumaniza la relación educativa. Se
concluye que la rapidez con la que se va
desarrollando la tecnología genera un desgaste
integral académico y limitación del
razonamiento; por lo cual, es necesario el rol del
docente como una guía que fortalezca el
desarrollo ético e integral, el cual no puede ser
reemplazado por la tecnología. En este sentido,
se considera importante que las instituciones de
educación superior adopten políticas públicas
para regular su uso y así puedan mantener su
calidad educativa.
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 265
Palabras clave: IA Generativa, Ética,
Dependencia Tecnológica, Pensamiento
Crítico, Educación Superior.
Abstract
This study aims to analyze the academic risks
of using generative artificial intelligence (FAI)
by examining the perceptions of students and
faculty to understand its implications for higher
education at the ESPE University of the Armed
Forces. The study has a mixed approach, with
an exploratory scope and a non-experimental
cross-sectional design; a sample of 90 students
and 10 teachers was used. Data was collected
through structured surveys administered to
students and semi-structured interviews
conducted with faculty, validated by expert
review. The results obtained in this study
highlight risks in the educational, ethical,
technological, and social dimensions, with the
social dimension being the most affected.
Through triangulation of results, the study
confirms with other authors that generative AI
has a multidimensional impact. The main
findings revealed that while FAI optimizes the
pedagogical process, its irresponsible use can
generate dependency, weaken critical thinking,
and dehumanize the educational relationship. It
is concluded that the rapid pace of
technological development leads to overall
academic decline and limitations in reasoning;
therefore, the teacher's role as a guide who
strengthens ethical and holistic development is
essential, and this role cannot be replaced by
technology. In this regard, it is considered
important that higher education institutions
adopt public policies to regulate its use and thus
maintain their educational quality.
Keywords: Generative AI, Ethics,
Technological Dependence, Critical
Thinking, Higher Education.
Sumário
Este estudo visa analisar os riscos académicos
da utilização da inteligência artificial
generativa (IAF), examinando as perceções de
estudantes e professores para compreender as
suas implicações para o ensino superior na
Universidade ESPE das Forças Armadas. O
estudo adota uma abordagem mista, com
caráter exploratório e delineamento transversal
não experimental; foi utilizada uma amostra de
90 alunos e 10 professores. Os dados foram
recolhidos através de questionários
estruturados aplicados aos alunos e de
entrevistas semiestructuradas realizadas aos
professores, validadas por uma revisão de
especialistas. Os resultados obtidos neste
estudo realçam riscos nas dimensões educativa,
ética, tecnológica e social, sendo a dimensão
social a mais afetada. Através da triangulação
de resultados, o estudo confirma, em
consonância com outros autores, que a IA
generativa tem um impacto multidimensional.
Os principais achados revelaram que, embora a
IAF otimize o processo pedagógico, a sua
utilização irresponsável pode gerar
dependência, enfraquecer o pensamento crítico
e desumanizar a relação educativa. Conclui-se
que o ritmo acelerado do desenvolvimento
tecnológico leva a um declínio académico geral
e a limitações no raciocínio. Por isso, o papel
do professor como guia que fortalece o
desenvolvimento ético e integral é essencial, e
este papel não pode ser substituído pela
tecnologia. Neste sentido, considera-se
importante que as instituições de ensino
superior adotem políticas públicas para regular
a sua utilização e, assim, manter a qualidade do
seu ensino.
Palavras-chave: Inteligência Artificial
Generativa, Ética, Dependência Tecnológica,
Pensamento Crítico, Ensino Superior.
Introducción
En la actualidad, los entornos universitarios han
tenido que evolucionar e incorporar la
Inteligencia Artificial Generativa (IAG) como
parte del día a día; por lo tanto, surge como
nueva pedagogía moderna. Este nuevo modelo
favorece el aprendizaje autónomo y facilita a los
estudiantes encontrar información variada y
rápida sobre temas propuestos, pero a su vez es
necesario realizar una revisión crítica que
permita conocer cómo las herramientas
digitales en realidad están impactando de forma
real en la educación superior. En esta línea,
Guadalupe Sánchez et al. (2025) postulan que,
si bien estas arquitecturas tecnológicas han
logrado subsanar las asimetrías en la
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 266
asequibilidad de la información, el potencial
heurístico de la IAG se halla intrínsecamente
supeditado a la implementación de tamices
axiológicos y criterios de validación rigurosos.
No obstante, el libre acceso a las herramientas
tecnológicas se ve opacado por los principios
éticos universitarios. Autores como Pikhart y
Al-Obaydi (2025) sostienen que creer
ciegamente en la IAG no permite el buen
desarrollo del pensamiento crítico, lo que
genera una deshumanización gradual de la
relación docente-estudiante. En este contexto,
Romeu Fontanillas et al. (2025) señalan que el
uso técnico de la IA no es suficiente; lo
indispensable es conocer a fondo lo que se está
haciendo. Asimismo, Chica Elizalde et al.
(2025) resaltan que los errores propios de la IA
confunden a quienes se están iniciando en el
ámbito científico. Esta tensión entre innovación
tecnológica y responsabilidad ética se
intensifica cuando la IAG resuelve problemas
complejos considerados por las personas,
poniendo en riesgo el razonamiento y
pensamiento crítico de los estudiantes (Vega-
Reinel et al., 2025). A ello se suma la
introducción de sesgos algorítmicos y
desigualdades existentes entre los estudiantes,
convirtiendo un recurso potencialmente
facilitador en una barrera para la equidad
educativa (Morán et al., 2024). En este sentido,
la dependencia de la tecnología genera cierta
preocupación especialmente en las habilidades
cognitivas de los estudiantes de educación
superior.
La revisión de literatura realizada reconoce que
la IAG ha logrado transformar de forma
progresiva la educación superior. Si bien
distintas investigaciones destacan su eficiencia
en el proceso de enseñanza aprendizaje,
también se evidencia una preocupación latente
en la forma que los estudiantes están utilizando
esta tecnología. Estos riesgos no se limitan al
comportamiento estudiantil, sino que también
impactan en los sistemas de evaluación docente,
los cuales no han evolucionado al mismo ritmo
que la tecnología (Ricra et al., 2025). Por tal
razón la ausencia de políticas claras y una
alfabetización digital de su correcto empleo
hace que se la utilice sin control y sin un
adecuado fin pedagógico (Hernández et al.,
2024). Estos factores llegan a desglosarse en
cuatro riesgos clasificados por dimensiones,
riesgos educativos, éticos, sociales y
tecnológicos.
La variedad de herramientas tecnológicas para
el ámbito educativo ha permitido que los
estudiantes pierdan el compromiso y el esfuerzo
académico que demanda cada asignatura que
han elegido seguir y por consiguiente el
rendimiento académico (Pikhart y Al-Obaydi,
2025). Estudios realizados advierten que la falta
de orientación de detección de IAG de docentes
dificulta la capacidad de regular y controlar este
uso en las aulas (Valderrama et al., 2025;
Romeu et al., 2025). Por lo cual cada vez es más
frecuente observar un “copia y pega” como
reproducción mecánica de contenidos. La
desorientación y falta de control, impulsa a que
los estudiantes se centren netamente en cumplir
con la entrega del trabajo sin generar
metacognición en el estudiante. Al tener una
dependencia del uso de la IAG, la integridad
académica se ve afectada principalmente por
plagio y pérdida de autoría. Esto se debe a la
facilidad para generar contenidos complejos
mediante algoritmos lo que cada vez más
genera deshonestidad académica en los
estudiantes (Vega et al., 2025).
Los trabajos realizados por los estudiantes
pierden validez ya que el conocimiento llega a
adquirirse de manera superficial, al saber que el
estudiante está cumpliendo con la entrega del
trabajo sin generar en el estudiante el análisis
crítico y resultados esperados por el docente
(Hernández et al., 2024). Sumado a ello la falta
de confiabilidad en los contenidos generados y
los sesgos que tienen los modelos de lenguajes,
son factores que comprometen la objetividad
científica y evidencian la importancia de
reflexionar en la ética de la praxis educativa en
la actualidad. Desde lo social, se menciona que
el uso poco responsable de la IAG hace que las
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 267
personas lleguen a utilizarla en su vida diaria
para todo, generando incluso dependencia. Si
bien permite la comunicación, también afecta la
interacción social y el intercambio de ideas o la
expresión de sentimientos, así como la
disminución de la habilidad argumentativa en el
proceso educativo (Kościelniak y Bielecki,
2024). De acuerdo con Haroud y Sari (2025), el
rol del docente es indispensable y no puede ser
reemplazado por la tecnología. Si se llegara a
sustituir por alguna IAG sin su debido control,
esto podría desencadenar el deterioro de las
habilidades duras y blandas en el estudiante, las
mismas que, al integrarse, permiten formar
profesionales integrales. La IAG tiene
problemas técnicos; al manejar un exceso de
información, esta puede ser errónea dado que
no siempre es verificada. Chica et al. (2025)
explican que las herramientas, algunas veces,
pueden arrojar información equivocada e
inventar datos falsos, logrando así confundir al
usuario con la información. Por otro lado,
Guadalupe et al. (2025) mencionan que la falta
de pautas sobre el funcionamiento de la IAG
pone en riesgo los principios éticos de la
universidad. Es decir, si no se verifica la
información que proporciona la IAG, los
trabajos pierden credibilidad y seriedad al
momento de su argumentación. Bajo esta
premisa, este estudio tiene como objetivo
analizar los riesgos académicos del uso de la
inteligencia artificial generativa mediante un
análisis de percepciones de estudiantes y
docentes para la comprensión de sus
implicaciones en la formación de estudiantes en
la Universidad de las Fuerzas Armadas ESPE.
Además de sistematizar los resultados
obtenidos; y formular recomendaciones
orientadas a la gestión ética y académica de la
IA generativa, basadas en los hallazgos del
estudio, con el fin de prevenir riesgos y
fomentar un uso responsable de esta tecnología.
Materiales y Métodos
Este estudio cuenta con un enfoque mixto ya
que se compararon datos cuantitativos e
información cualitativa para una interpretación
más profunda y crítica, es de alcance
exploratorio y diseño no experimental, debido a
que no se realizó la manipulación de variables
(Hernández et al., 2014). Para la recolección de
la información se utilizó una encuesta diseñada
en Google Forms estructura por 20 preguntas
con opciones de respuesta cerrada bajo una
escala tipo likert y una entrevista
semiestructurada de 10 preguntas a docentes, lo
que propició la convergencia de hallazgos
cuantitativos y cualitativos, permitiendo una
holística multidimensional del fenómeno en
cuestión. La muestra estuvo conformada por 90
estudiantes y 10 docentes, seleccionados a
través de un muestreo no probabilístico de tipo
intencional en la Universidad de las Fuerzas
Armadas ESPE. Finalmente, se llevó a cabo una
triangulación metodológica de los resultados
obtenidos, con el propósito de contrastar la
información proveniente de los distintos
instrumentos para fortalecer la credibilidad y
validez del estudio.
Resultados y Discusión
Análisis comparativo de la encuesta aplicada
a estudiantes
El análisis estadístico se realizó mediante el
software Jamovi, primero se efectuó un análisis
descriptivo de las medias de las dimensiones:
educativa y proceso de aprendizaje, ética e
integridad académica, rigor tecnológico y
veracidad y social y brecha de logro.
Obteniendo los siguientes resultados. La Tabla
1 presenta los estadísticos descriptivos de las
dimensiones analizadas, incluyendo educativa y
proceso de aprendizaje, ética e integridad
académica, rigor tecnológico y veracidad, y
social y brecha de logro. Los resultados
evidencian que la muestra está compuesta por
90 participantes sin datos perdidos, mostrando
medias que oscilan entre 2.57 y 3.20, siendo la
dimensión social y brecha de logro la de mayor
puntuación promedio.
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 268
Tabla 1. Descriptivas
Educativa y proceso de aprendizaje
Ética e integridad académica
Rigor tecnológico y veracidad
Social y brecha de logro
N
90
90
90
90
Perdidos
0
0
0
0
Media
2.71
2.70
2.57
3.20
Desviación estándar
0.686
0.782
0.678
0.817
Varianza
0.471
0.611
0.460
0.668
Fuente: Elaboración propia
En consonancia con la síntesis estadística de la
Tabla N.º 1, y considerando que la escala Likert
utilizada oscila entre 1 y 5, las medias obtenidas
se sitúan en niveles intermedios, lo que
evidencia percepciones moderadas en todas las
dimensiones evaluadas. No obstante, se
identifican diferencias entre ellas: la dimensión
social y brecha de logro presenta la puntuación
más alta (3.20), lo que indica una percepción
relativamente mayor del impacto de la IA en el
ámbito social, mientras que rigor tecnológico y
veracidad registra la media más baja (2.57), lo
que sugiere que los estudiantes consideran que
el uso de la IA no genera ningún riesgo en esta
área, reflejando menor reconocimiento o
comprensión de este aspecto. Las dimensiones
educativas (2.71) y ética (2.70) presentan
valores prácticamente iguales. Estas
puntuaciones nos muestran que los estudiantes
consideran que el uso de IAG no representa
ningún riesgo crítico en su formación
académica ni en el rigor científico de sus
trabajos, reflejando así percepciones similares
en el uso de tecnologías.
A efectos de objetivar la homogeneidad del
instrumento y la confiabilidad entre ítems se
calculó el coeficiente alfa de Cronbach, esta
estadística permite medir la fiabilidad de la
escala de medida; y es indispensable para
determinar que los componentes del
instrumento tengan correlación entre y
evalúen de manera consistente el instrumento
(Cervantes, 2005). En este análisis se obtuvo el
siguiente resultado:
Tabla 2. Estadística de Fiabilidad de Escala
Alfa de Cronbach
0.866
Fuente: Elaboración propia
El valor de α = 0.866, indica un nivel alto de
fiabilidad de la escala y confirma que los ítems
presentan adecuada coherencia interna para
medir el constructo analizado. Para
complementar el análisis se utilizó el estadístico
ANOVA para medidas repetidas, este
estadístico se emplea para comparar medias de
variables relacionadas medidas en los mismos
sujetos, permitiendo evaluar diferencias
intraindividuales entre condiciones (Okoye &
Hosseini, 2024). En este caso se utilizó para
analizar si existen diferencias significativas
entre las 4 dimensiones analizadas. Se obtuvo
los siguientes resultados:
Tabla 3. Efectos dentro de los Sujetos
Efectos dentro de los Sujetos
Suma de
Cuadrados
gl
Media
Cuadrática
F
p
η²p
MR Factor
1
21.2
3
7.078
23.2
<.001
0.206
Residual
81.6
267
0.306
Fuente: Elaboración propia
Para realizar la interpretación es necesario
analizar el valor de p bajo los siguientes
supuestos.
p < 0.05: existen diferencias significativas
entre dimensiones
p ≥ 0.05: no hay diferencias significativas
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 269
En este caso los resultados obtenidos son
F(3,267) = 23.20 y p < .001 es decir menor a
0.05 lo que indica que existen diferencias
estadísticamente significativas entre las
dimensiones evaluadas, esto significa que la
percepción de los estudiantes cambia según la
dimensión analizada. Para afianzar este
resultado, se aplicó la prueba no paramétrica de
Friedman, la cual permite determinar si existen
diferencias significativas entre las muestras que
están relacionadas entre sí. Esto ayuda a
confirmar si las dimensiones analizadas
cumplen con el rigor científico (Siegel y
Castellan, 1995). En este caso, se obtuvieron los
siguientes resultados
Tabla 4. Friedman
χ²
gl
p
42.2
3
<.001
Fuente: Elaboración propia
Como se observa el valor de p es menor a 0.05
lo que confirma la existencia de diferencias
entre dimensiones sin asumir normalidad en los
datos. Como se observa el valor de p es menor
a 0.05 lo que confirma la existencia de
diferencias entre dimensiones sin asumir
normalidad en los datos. Como existen
diferencias significativas se realizó
comparaciones post hoc para saber entre cuáles
dimensiones están las diferencias, obteniendo
los siguientes resultados:
Tabla 5. Comparaciones Post Hoc - MR Factor
1
Comparación
MR Factor 1
MR Factor 1
Diferencia de medias
EE
gl
t
ptukey
Dimensión 1
Dimensión 2
0.0156
0.0779
89.0
0.200
0.997
Dimensión 3
0.1428
0.0704
89.0
2.029
0.185
Dimensión 4
-0.4933
0.0853
89.0
-5.785
<.001
Dimensión 2
Dimensión 3
0.1272
0.0674
89.0
1.887
0.241
Dimensión 4
-0.5089
0.0969
89.0
-5.252
<.001
Dimensión 3
Dimensión 4
-0.6361
0.0923
89.0
-6.889
<.001
Fuente: Elaboración propia
Con los mismos supuestos de arriba se observa
que no existen diferencias estadísticamente
significativas entre las dimensiones 1, 2 y 3, ya
que todos sus valores p son mayores a 0.05, lo
que indica que sus medias son similares y no se
distinguen entre en términos de percepción
estudiantil. En contraste, la dimensión 4
presenta diferencias significativas frente a todas
las demás (p <0.001 en cada comparación), con
diferencias de medias negativas considerables,
lo que indica que su media es significativamente
superior respecto a las otras dimensiones. En
conjunto, estos resultados indican que la
variabilidad global detectada en el análisis
inferencial se debe exclusivamente a la
dimensión 4, la cual se posiciona como la única
que difiere significativamente del resto. Los
resultados revelan que el impacto percibido de
la IA generativa difiere significativamente
según la dimensión analizada, con un énfasis
predominante en la esfera social. En contraste,
las dimensiones educativas, ética y tecnológica
exhiben una equivalencia estadística, lo que
sugiere una asimilación de la herramienta
centrada en su funcionalidad operativa antes
que en un análisis crítico de sus implicaciones.
Análisis comparativo de la entrevista a
docentes
Este análisis se realizó considerando las
dimensiones establecidas en la matriz de
operacionalización de variables, lo cual permite
sintetizar las experiencias y percepciones de los
docentes respecto al uso de la Inteligencia
Artificial Generativa (IAG) en el entorno
académico.
Dimensión 1. Educativa
La Dimensión Educativa se centra en comparar
cómo la Inteligencia Artificial Generativa
(IAG) configura el proceso de enseñanza-
aprendizaje a nivel de la educación superior.
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 270
Basándose en la matriz de operacionalización
de variables, se toman en cuenta aspectos
principales en dicha dimensión como son: la
atrofia cognitiva, la desviación pedagógica y la
alineación en la relación docente-alumno; ítems
que permiten identificarlos como riesgos
críticos para el rigor científico. Respecto a la
habilidad que tienen los estudiantes para la
resolución de problemas complejos, los
docentes coinciden en que el uso de
herramientas basadas en los modelos de
lenguaje extensos (LLM) está fomentando una
dependencia de los algoritmos; generando, así,
dificultad para la resolución de problemas, la
creación de conceptos y de criterios propios.
Pero, por otro lado, se puede rescatar que el uso
de dichas herramientas tecnológicas, al ser
usadas de manera correcta y guiada, puede
servir de apoyo al docente y al estudiante para
realizar la retroalimentación de los temas y
fortalecer el aprendizaje.
En cuanto a la participación académica, los
resultados indican que el pensamiento crítico en
las aulas ha disminuido considerablemente, así
como también la participación de los
estudiantes. Los docentes señalan que, si bien la
IAG facilita el acceso a la información de
manera rápida, esto provoca que las
intervenciones estudiantiles posean un
contenido vago o nulo. Esto es notable en las
aulas universitarias, puesto que los estudiantes
tienen un vocabulario limitado o monosilábico,
y se les dificulta la exposición de temas. No
obstante, los docentes mencionan que para
fortalecer la participación es necesario motivar
a los estudiantes y ofrecerles casos prácticos.
Con respecto a la relación docente-alumno, se
muestra un distanciamiento significativo en la
interacción humana, donde los entrevistados
observan que los estudiantes quitan credibilidad
a las tutorías académicas porque piensan que los
LLM son expertos en la materia. Al estar
disponibles 24/7, estas herramientas restan
valor al acompañamiento pedagógico
presencial, creando una deshumanización
académica. Así, cambia el rol del docente, que
pasa de ser un guía intelectual a un supervisor
técnico de errores de algoritmos generados por
IA. Este fenómeno de alienación docente-
alumno es un riesgo crítico identificado en este
estudio.
Al investigar sobre los retos que tienen los
docentes para detectar la IA, estos coinciden en
que es complejo identificar el texto elaborado
por inteligencia artificial, ya que este tiende a
ser coherente y fluido. Por otra parte, comentan
que la experiencia en la materia es una fortaleza
que les permite detectar el plagio; asimismo, el
uso de la sustentación teórica es una técnica que
ayuda a identificar si el trabajo es de autoría
propia. Se puede rescatar que el docente
reconoce el progreso individual de cada
estudiante y, de esta manera, logra contrastar la
habilidad de redacción actual con la observada
previamente en clase. Para concluir, los
docentes coinciden en que uno de los
principales dilemas éticos es que los estudiantes
se atribuyen autorías de trabajos que carecen de
rigor científico; ya que dichos estudios o
trabajos elaborados por los estudiantes tienen
falencias en su información, porque esta no es
verificada, sus datos son inexistentes y las citas
bibliográficas son erróneas.
Dimensión 2. Ética
Los docentes enfrentan desafíos significativos
al intentar diferenciar entre el esfuerzo
cognitivo real del estudiante y el contenido
generado por IAG. Se manifiestan dificultades
para determinar la autoría real de los trabajos,
esto se debe a que cuando un trabajo presenta
resultados correctos y una metodología bien
estructurada, resulta complejo determinar si
corresponde al esfuerzo cognitivo del
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 271
estudiante. Esto sucede porque los textos
generados por IAG suelen ser coherentes,
fluidos y correctamente redactados. Otro factor
es que los detectores de plagio no siempre son
eficientes. Por lo que es necesario adoptar
ciertos métodos tradicionales que permitan
observar directamente el proceso cognitivo y la
capacidad argumentativa del estudiante. Los
docentes a través de la entrevista revelan que
entre los conflictos éticos al calificar los deberes
están centrados en la pérdida de autoría y
autenticidad. Por lo cual expresan tener cierta
preocupación por los resultados que no reflejan
el propio aprendizaje del estudiante, factor que
se convierte en un desafío sobre la justicia en la
evaluación y la responsabilidad de fomentar la
honestidad académica, por lo cual han
considerado importante establecer un diálogo
con los estudiantes para generar una reflexión
de valores. Otro de los conflictos son las
rúbricas tradicionales que no evidencian el
proceso ni el pensamiento crítico del estudiante,
lo que genera conflictos éticos sobre la
calificación. Asimismo, los docentes advierten
que el mal uso de la IA puede inducir a la
mediocridad, autoengaño y subestimación del
propio potencial, afectando la formación ética y
profesional de los estudiantes.
Dimensión 3. Tecnológica
Por otra parte, los docentes han identificado
frecuentemente casos de alucinaciones en los
deberes de los estudiantes como información
falsa, referencias bibliográficas inexistentes y
errores técnicos. Estas inconsistencias
principalmente se manifiestan cuando los
contenidos presentados no guardan
concordancia con el nivel académico. En este
sentido, los hallazgos señalan que las
alucinaciones producidas por la IAG tienen un
impacto directo en la integridad y calidad del
aprendizaje, obligando a los docentes a adoptar
estrategias que fomenten la autonomía, la
revisión crítica, y la capacidad de discernir
información confiable. Para enfrentar este
problema, los docentes han señalado que
plantean actividades de aprendizaje diseñadas
para que los estudiantes no dependan de la IAG.
Los docentes perciben el riesgo de sesgo de la
IAG como una fuerte preocupación debido a
que se suelen generar respuestas genéricas,
inconclusas o falsas al momento de utilizarlas,
factor que conlleva a un escaso rigor científico
y menor sustento argumentativo si la
información no es contrastada por parte del
estudiante. Así también, los docentes señalan
que el empleo inadecuado de esta tecnología
afecta directamente al razonamiento, análisis y
capacidad crítica, generando dependencia
tecnológica para cualquier tipo de actividad,
desde la más fácil hasta la más compleja. Por
otro lado, mencionan que la falta de lectura al
buscar fuentes verídicas puede provocar que los
estudiantes acepten la información generada por
la IA como una verdad absoluta.
Dimensión 4. Social
Respecto a las diferencias en el rendimiento
académico derivadas del tipo de acceso a la
tecnología (versiones gratuitas vs. avanzadas),
los docentes entrevistados coinciden en que
existe una disparidad notable en la calidad
formal y la profundidad de los entregables. Se
observa que las herramientas de pago facilitan
estructuras más completas y un mejor manejo
del contexto, lo que otorga una ventaja
competitiva en la presentación de trabajos. No
obstante, los expertos subrayan que esta
superioridad estética no necesariamente se
traduce en una mayor aprehensión del
conocimiento. De hecho, algunos docentes
sostienen que el verdadero factor diferencial es
la capacidad analítica del estudiante para aplicar
estrategias adecuadas y discernir la información
obtenida, advirtiendo que el riesgo de sesgos es
moderado sin que exista un pensamiento crítico
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 272
previo. En cuanto al impacto de la
automatización en el debate y la comunicación
interpersonal, los resultados señalan un
debilitamiento de la capacidad argumentativa y
del intercambio genuino de ideas. Los
entrevistados señalan que la dependencia de
respuestas preestablecidas está sustituyendo el
juicio individual por datos procesados que
carecen de percepción humana, resultando a
menudo en diálogos "vacíos". Esta tendencia se
ve agravada por una escasez de lectura
profunda, lo que limita al estudiante a manejar
solo el mínimo de fundamentos necesarios para
sostener una discusión. Según los hallazgos, el
abuso de la tecnología ha perjudicado la
comunicación efectiva y el trabajo colaborativo,
ya que los alumnos prefieren recurrir a la
inmediatez del algoritmo en lugar de construir
ideas colectivamente. Finalmente, la percepción
sobre la idoneidad de los futuros egresados
revela una preocupación institucional por la
pérdida del criterio técnico y la autonomía.
Existe un consenso en que el nivel de
competencia profesional dependerá
estrictamente del equilibrio entre el uso de la IA
como herramienta de eficiencia y el desarrollo
de habilidades cognitivas propias. Los docentes
advierten sobre la formación de profesionales
con carencias estructurales en la resolución de
problemas y una baja capacidad para enfrentar
necesidades reales fuera del entorno digital. Se
destaca, además, una diferencia cualitativa en el
desempeño de estudiantes de modalidades en
línea frente a presenciales, sugiriendo que la
dependencia excesiva de la IA en entornos
virtuales podría estar comprometiendo la
integridad científica y ética del futuro
profesional.
Triangulación de resultados
La contrastación de este estudio se realizó a
partir de los resultados obtenidos tanto de la
encuesta aplicada a los estudiantes como de la
entrevista realizada a los docentes, además de
los aportes teóricos relacionados con los riesgos
en el uso de la Inteligencia Artificial Generativa
(IAG) en la educación superior. Esta
triangulación permite fortalecer la validez de
los hallazgos. Aun cuando la dimensión
tecnológica registró la media nominal más baja
(2.57) en comparación con la educativa (2.71) y
la ética (2.70), dichas variaciones carecen de
significación estadística. Este comportamiento
de los datos indica una percepción homogénea
entre los estudiantes, lo que podría interpretarse
como una visión indiferenciada de los desafíos
pedagógicos, morales y técnicos de la IA
generativa. Guzmpan (2024) considera que la
falta de transparencia en los trabajos
académicos ha provocado que el uso
inadecuado de la inteligencia artificial deje de
ser una herramienta de apoyo para el
aprendizaje y pase a convertirse en el ejecutor
principal de las actividades, desplazando el
esfuerzo intelectual. Por ende, los riesgos no se
centran en una dimensión específica, sino que
son comprendidos como un fenómeno
multidimensional que impacta de forma similar
en los distintos aspectos del proceso educativo.
En este sentido, se sostiene que esta herramienta
tecnológica requiere de una reflexión
pedagógica en la educación para tener
oportunidades transformadoras y evitar el
deterioro tecnológico (Ruiz et al., 2025).
Las entrevistas realizadas a los docentes
sostienen que han identificado riesgos que están
vinculados a la dependencia cognitiva,
apoyándose exclusivamente en herramientas
como la IA para pensar, analizar o resolver
problemas, disminuyendo su propio
razonamiento. Diversos investigadores
coinciden en que este aspecto repercute
negativamente en el desarrollo del aprendizaje
autónomo, volviendo a los estudiantes menos
competentes y, en consecuencia, afecta su
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 273
rendimiento académico por la dependencia
tecnológica (Del Cisne et al., 2024: Marín et al.,
2024). No obstante, la dimensión ética y
tecnológica también se ve afectada por la
autenticidad académica, la dependencia y las
alucinaciones de la IA, las cuales para los
estudiantes son aceptadas como verdades
absolutas sin llegar a la contrastación de la
fuente. Para Daza et al (2023) las alucinaciones
propagan la desinformación por lo que se
recomienda a los docentes emplear otro tipo de
estrategias como el aula invertida para mitigar
estos efectos.
No obstante, se evidencia que el mayor riesgo
de la IAG recae en la dimensión social. Esta
presenta la media más alta de (3.20), la cual está
relacionada con la interacción social, la
deshumanización del debate y la preocupación
de que sus competencias pierdan relevancia por
el uso de la IAG. Si bien permite la
comunicación, también afecta la interacción
social y el intercambio de ideas o la expresión
de sentimientos, así como la disminución de la
habilidad argumentativa en el proceso
educativo (Kościelniak y Bielecki, 2024). Por lo
cual los resultados demuestran que, aunque la
tecnología es una aliada para el aprendizaje de
los estudiantes, los efectos negativos también se
han convertido en una preocupación por parte
de las autoridades. Los docentes mencionan que
existe un riesgo mayor en esta dimensión,
donde el uso excesivo de la IAG llega a debilitar
la interacción académica, reduce el debate y
afecta la comunicación interpersonal, Del Cisne
et al. (2024) consideran que la solución no es
evitarla o prohibir, sino implementarla de forma
efectiva y ética, para mitigar problemas sociales
y así sacarle provecho a la IAG. Para combatir
estos riesgos a corto o largo plazo se requiere de
la colaboración de docentes que ayuden al
estudiante a reflexionar y regular su uso en las
aulas complementándolo con el análisis crítico
en clases. Esta triangulación de resultados
fortalece la comprensión de esta investigación,
confirmando que el uso de la inteligencia
artificial generativa podría afectar el desarrollo
de habilidades esenciales como la
argumentación, el criterio técnico y la
resolución autónoma de problemas en la
educación superior, por ende, se requiere de
una regulación educativa, ética, tecnológica y
social que permita sacar un mejor provecho a su
uso sin comprometer el desarrollo crítico y
autónomo de los estudiantes.
Conclusiones
Esta investigación permite contrastar que la
IAG en la educación superior tiene un impacto
multidimensional. Si bien se convierte en un
aliado para el aprendizaje, ya que permite
optimizar los procesos académicos, no obstante,
su empleo se ve afectado cuando los estudiantes
no lo utilizan con responsabilidad, ética, ni
autonomía, lo que puede llegar a debilitar a
corto y largo plazo el desarrollo cognitivo. En
este sentido, se identificaron riesgos a través de
la dimensión educativa, ética, tecnológica y
social, las cuales llegan a afectar la calidad
educativa si no se regula su uso responsable en
el ámbito académico mediante políticas
públicas por parte de las universidades. La
investigación concluye que la Inteligencia
Artificial Generativa en la educación superior
ha generado una paradoja donde la
optimización de procesos académicos coexiste
con una crítica erosión del pensamiento y una
dependencia algorítmica que afecta al 42% de
los estudiantes. El riesgo más significativo es el
social y humano (media de 3.20),
manifestándose en una deshumanización de la
relación docente-alumno y una "pereza
cognitiva" que compromete la integridad
científica. Dado que los estudiantes tienden a
aceptar las "alucinaciones" de la IA como
verdades absolutas (media de 2.57 en rigor
tecnológico), es imperativo que las instituciones
transiten hacia una alfabetización digital crítica
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 274
y marcos regulatorios que prioricen la
capacidad argumentativa y la autonomía
investigativa sobre la reproducción mecánica de
contenidos.
Finalmente, se puede concluir que la tecnología
va cambiando y desarrollándose a gran
velocidad diariamente a nivel universitario; en
este punto, se deduce que las reglas y métodos
pedagógicos no están planteados a la par, lo que
genera un desgaste sobre la integridad
académica. Asimismo, se evidencia que la
dependencia del uso de modelos de lenguaje
(LLM) produce que los estudiantes tengan
limitaciones en el razonamiento y problemas de
autoría, lo que conlleva a que no tengan un
conocimiento sólido y a plantearnos si los
títulos universitarios en realidad reflejan el
conocimiento que deberían tener los estudiantes
previo a su titulación. Posteriormente, el rol
docente es indispensable, ya que es una guía que
fortalece el desarrollo ético e integral y no
puede ser reemplazado por la parte tecnológica.
Referencias Bibliográficas
Cervantes, V. (2005). Interpretaciones del
coeficiente alpha de Cronbach. Avances en
Medición, 3, 928.
Chica, A., Gonzalez, O., Loján, E., & Rivas, W.
(2025). Evaluación del uso de la inteligencia
artificial generativa en la Universidad
Técnica de Machala: beneficios y riesgos.
Estudios y Perspectivas Revista Científica y
Académica, 5(2).
https://doi.org/10.61384/r.c.a.v5i2.1200
Daza, M., Arechiga, D., & Iñiguez, A. (2023).
La IA generativa en la educación superior: el
caso de ChatGPT. En Disrupciones
académicas: educación, tecnología,
naturaleza (pp. 131142).
Del Cisne, M., Romero, J., Aguilera, D., &
Romero, A. (2024). Consecuencias de la
dependencia de la inteligencia artificial en
habilidades críticas y aprendizaje autónomo
en los estudiantes. Ciencia Latina Revista
Científica Multidisciplinar, 8(2), 2368
2382.
https://doi.org/10.37811/cl_rcm.v8i2.10678
González, M., Ramos, J., Chávez, F., & Trejo,
M. (2024). Ventajas y riesgos de la
inteligencia artificial generativa desde la
percepción de los estudiantes de educación
superior. European Public & Social
Innovation Review, 9, 118.
https://doi.org/10.31637/epsir-2024-495
Guadalupe, K., Santos, R., Herrera, A.,
Escobar, J., & Cedeño, P. (2025). La
inteligencia artificial generativa en la
educación superior: oportunidades en el
siglo XXI. South Florida Journal of
Development, 6(5), 118.
https://doi.org/10.46932/sfjdv6n5-046
Guzmán, C. (2024). El impacto de ChatGPT en
la educación superior: promesas y riesgos.
Revista Politécnica de Aguascalientes, 4(3),
17.
Haroud, S., & Saqri, N. (2025). IA generativa
en la educación superior: perspectivas de
docentes y estudiantes sobre apoyo,
reemplazo y alfabetización digital.
Education Sciences, 15(4), 396.
https://doi.org/10.3390/educsci15040396
Hernández, R., Fernández, C., & Baptista, M.
(2014). Metodología de la investigación.
McGraw-Hill.
Kościelniak, M., & Bielecki, M. (2024). The
psychology of generative AI in higher
education: mapping benefits and risks.
https://doi.org/10.32388/x1itss
Marín, F., Padilla, J., & Pacheco, M. (2024).
Inteligencia artificial: dependencia y la
afección del pensamiento crítico. Ciencia
Latina Revista Científica Multidisciplinar,
8(4), 1259012608.
Morán, S., Tirado, S., López, L., & López, A.
(2024). Barreras de la inteligencia artificial
generativa en estudiantes de educación
superior: percepción docente. Revista de
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 275
Investigación en Tecnologías de la
Información, 12(25), 2637.
https://doi.org/10.36825/RITI.12.25.003
Okoye, K., & Hosseini, S. (2024). Análisis de
varianza (ANOVA) en R: ANOVA
unidireccional y bidireccional. En
Programación en R: análisis estadístico de
datos en la investigación (pp. 187209).
Springer.
Pikhart, M., & Al-Obaydi, L. (2025). Reporting
the potential risk of using AI in higher
education: subjective perspectives of
educators. Computers in Human Behavior
Reports, 18, 100693.
https://doi.org/10.1016/j.chbr.2024.100693
Ricra, R., Queque, E., Vega, F., Martínez, D.,
Ross, J., & Lara, L. (2026). Implicaciones
éticas de la inteligencia artificial generativa
en la educación superior: una revisión
sistemática. Revista InveCom, 6(2).
Romeu, T., Romero, M., Guitert, M., & Baztán,
P. (2025). Desafíos de la inteligencia
artificial generativa en educación superior:
fomentando su uso crítico en el estudiantado.
Universitat Oberta de Catalunya.
Ruiz, G., Paz, Y., Morales, K., & Narváez, E.
(2025). El impacto de la inteligencia
artificial en la enseñanza del derecho.
Multidisciplinary Latin American Journal,
3(1), 468491.
Saúde, S., Barros, J., & Almeida, I. (2024).
Impacts of generative artificial intelligence
in higher education: research trends and
students’ perceptions. Social Sciences,
13(8), 410.
https://doi.org/10.3390/socsci13080410
Siegel, S., & Castellan, N. (1995). Estadística
no paramétrica aplicada a las ciencias de la
conducta (4.ª ed.). Trillas.
Valderrama, E., Pánchez, R., López, K., &
Peova, M. (2025). Inteligencia artificial
generativa en la educación superior aplicada
a la investigación científica del proceso de
enseñanza-aprendizaje: una revisión
sistemática. RECIAMUC, 9(4), 135154.
https://doi.org/10.26820/reciamuc/9.(4).dici
embre.2025.135-154
Vega, S., Palacios, R., Pazmiño, A., Peña, P., &
García, C. (2025). Implicaciones éticas del
uso de inteligencia artificial generativa en la
formación universitaria: dilema entre la
innovación tecnológica y la responsabilidad
académica. REICOMUNICAR, 8(15), 833
851. https://doi.org/10.46296/rc.v8i15.0361
Esta obra esbajo una licencia de
Creative Commons Reconocimiento-No Comercial
4.0 Internacional. Copyright © Joselyn Dayanira
Romero Cedeño, María José Alvarez Peñafiel,
Geovanny Danilo Fajardo Iguasnia y Jeferson
Dario Crespo Asqui.
Declaraciones éticas y editoriales del artículo
Contribución de los autores (Taxonomía CRediT)
Joselyn Dayanira Romero Cedeño: conceptualización de la investigación, diseño metodológico, desarrollo del proceso investigativo, análisis formal de
los datos, redacción del borrador original del manuscrito, revisión crítica del contenido científico y supervisión general del estudio.
María José Alvarez Peñafiel: curación y organización de los datos, participación en la recolección de información, validación de los resultados obtenidos
y elaboración de representaciones gráficas y visualización de los datos.
Geovanny Danilo Fajardo Iguasnia: curación y organización de los datos, participación en la recolección de información, validación de los resultados
obtenidos y elaboración de representaciones gráficas y visualización de los datos.
Jeferson Dario Crespo Asqui: provisión de recursos académicos y materiales para el desarrollo del estudio, apoyo en la administración del proyecto
investigativo y revisión editorial del manuscrito antes de su publicación.
Declaración de conflicto de intereses
Los autores declaran que no existe conflicto de intereses en relación con la investigación presentada, la autoría del manuscrito ni la publicación del
presente artículo.
Declaración de financiamiento
La presente investigación no recibió financiamiento específico de agencias públicas, comerciales o de organizaciones sin fines de lucro. En caso de
existir financiamiento institucional o externo, este deberá ser declarado explícitamente por los autores en esta sección.
Declaración del editor
El editor responsable certifica que el proceso editorial del presente artículo se desarrolló conforme a los principios de integridad científica, transparencia
y buenas prácticas editoriales. El manuscrito fue sometido a un proceso de evaluación mediante revisión por pares doble ciego, garantizando la
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 3.1
Edición Especial III 2026
Página 276
confidencialidad de la identidad de los autores y revisores durante todo el proceso de dictamen académico. Asimismo, el editor declara que el artículo
cumple con los criterios científicos, metodológicos y éticos establecidos por la revista.
Declaración de los revisores
Los revisores externos que participaron en la evaluación del presente manuscrito declaran haber realizado el proceso de revisión de manera objetiva,
independiente y confidencial. Asimismo, manifiestan que no mantienen conflictos de interés con los autores ni con la investigación evaluada, y que sus
observaciones y recomendaciones se fundamentan exclusivamente en criterios científicos, metodológicos y académicos.
Declaración ética de la investigación
Los autores declaran que la investigación se desarrolló respetando los principios éticos de la investigación científica, garantizando la confidencialidad
de los datos y el respeto a los participantes del estudio. En los casos en que la investigación involucre seres humanos, los procedimientos deben ajustarse
a los principios éticos establecidos en la Declaración de Helsinki y a las normativas institucionales correspondientes.
Declaración sobre el uso de inteligencia artificial
Los autores declaran que el uso de herramientas de inteligencia artificial, en caso de haberse utilizado durante el proceso de investigación o redacción
del manuscrito, se realizó únicamente como apoyo técnico para mejorar la claridad del lenguaje o el análisis de información, manteniendo siempre la
responsabilidad intelectual sobre el contenido del artículo. Las herramientas de inteligencia artificial no fueron utilizadas como autoras del manuscrito
ni sustituyen la responsabilidad académica de los investigadores.
Disponibilidad de datos
Los datos que respaldan los resultados de esta investigación estarán disponibles previa solicitud razonable al autor de correspondencia, respetando las
normas éticas y de confidencialidad establecidas por la investigación.