Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 176
ANÁLISIS DEL IMPACTO DE LA INTELIGENCIA ARTIFICIAL GENERATIVA EN EL
DESARROLLO DE COMPETENCIAS STEM
ANALYSIS OF THE IMPACT OF GENERATIVE ARTIFICIAL INTELLIGENCE ON THE
DEVELOPMENT OF STEM COMPETENCIES
Autores: ¹Geovanny Francisco Ruiz Muñoz y ²Juan Carlos Vasco Delgado.
¹ORCID ID: https://orcid.org/0000-0001-7529-6342
²ORCID ID: https://orcid.org/0000-0003-0587-9758
¹E-mail de contacto: geovanny.ruizm@ug.edu.ec
Afiliación:
1*2*
Universidad de Guayaquil. (Ecuador).
Artículo recibido: 11 de Enero del 2026
Artículo revisado: 13 de Enero del 2026
Artículo aprobado: 22 de Enero del 2026
¹Universidad de Guayaquil. (Ecuador).
²Universidad de Guayaquil. (Ecuador).
Resumen
La integración de inteligencia artificial
generativa en educación STEM ha generado
interrogantes sobre su impacto en el desarrollo
de competencias técnicas y analíticas. Este
estudio cuasi-experimental evaluó el efecto de
la IA generativa en competencias STEM
mediante una muestra de estudiantes
universitarios ecuatorianos, distribuidos en
grupos de intervención y control. Se empleó la
Batería de Evaluación de Competencias
STEM, evaluando competencias matemáticas,
razonamiento científico, resolución de
problemas, programación y análisis de datos.
Los resultados revelaron mejoras
estadísticamente significativas en todas las
dimensiones evaluadas, con efectos más
pronunciados en competencias de orden
superior como análisis, síntesis y evaluación,
comparado con competencias básicas de
conocimiento y comprensión. Los efectos
fueron sostenidos y se incrementaron
progresivamente a lo largo del tiempo. Se
concluye que la IA generativa actúa como
herramienta de mediación cognitiva que
fortalece las capacidades estudiantiles de
manera duradera, especialmente en procesos de
pensamiento complejo y resolución de
problemas.
Palabras clave: Inteligencia artificial
generativa, Competencias STEM,
Educación Superior, Desarrollo cognitivo,
Evaluación educativa.
Abstract
The integration of generative artificial
intelligence in STEM education has raised
questions about its impact on the development
of technical and analytical competencies. This
quasi-experimental study evaluated the effect
of generative AI on STEM competencies
through a sample of Ecuadorian university
students, distributed in intervention and control
groups. The STEM Competency Assessment
Battery was employed, evaluating
mathematical competencies, scientific
reasoning, problem-solving, programming, and
data analysis. Results revealed statistically
significant improvements in all evaluated
dimensions, with more pronounced effects on
higher-order competencies such as analysis,
synthesis, and evaluation, compared to basic
competencies of knowledge and
comprehension. Effects were sustained and
progressively increased over time. It is
concluded that generative AI acts as a cognitive
mediation tool that strengthens student
capabilities durably, especially in complex
thinking processes and problem-solving.
Keywords: Generative artificial intelligence,
STEM competencies, Higher education,
Cognitive development, Educational
assessment.
Sumário
A integração da inteligência artificial
generativa (IA generativa) no ensino STEM
(Ciência, Tecnologia, Engenharia e
Matemática) tem levantado questões sobre seu
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 177
impacto no desenvolvimento de habilidades
técnicas e analíticas. Este estudo quase-
experimental avaliou o efeito da IA generativa
nas habilidades STEM utilizando uma amostra
de estudantes universitários equatorianos,
divididos em grupos de intervenção e controle.
Foi utilizada a Bateria de Avaliação de
Habilidades STEM (STEM Skills Assessment
Battery), que avalia habilidades matemáticas,
raciocínio científico, resolução de problemas,
programação e análise de dados. Os resultados
revelaram melhorias estatisticamente
significativas em todas as dimensões avaliadas,
com efeitos mais pronunciados em habilidades
de ordem superior, como análise, síntese e
avaliação, em comparação com as habilidades
básicas de conhecimento e compreensão. Os
efeitos foram sustentados e aumentaram
progressivamente ao longo do tempo. Conclui-
se que a IA generativa atua como uma
ferramenta de mediação cognitiva que fortalece
as habilidades dos estudantes de forma
duradoura, especialmente em processos de
pensamento complexo e resolução de
problemas.
Palavras-chave: Inteligência artificial
generativa, Habilidades STEM, Ensino
superior, Desenvolvimento cognitivo,
Avaliação educacional.
Introducción
La integración de la inteligencia artificial
generativa en la educación superior está
transformando fundamentalmente el desarrollo
de competencias en ciencia, tecnología,
ingeniería y matemáticas (STEM). La
masificación del acceso a herramientas como
ChatGPT, Claude y otras plataformas de IA
generativa ha generado un punto de inflexión en
las metodologías de enseñanza-aprendizaje de
disciplinas STEM, planteando interrogantes
fundamentales sobre cómo estas tecnologías
influyen en la adquisición de competencias
técnicas, analíticas y de resolución de
problemas. Esta revolución tecnológica no solo
está redefiniendo las estrategias pedagógicas en
campos científicos y tecnológicos, sino que
también está cuestionando los paradigmas
establecidos sobre la evaluación de
competencias STEM y el desarrollo de
habilidades críticas en estas áreas. La relevancia
de investigar este fenómeno radica en su
impacto directo sobre la formación de
profesionales en áreas STEM, campos que
constituyen pilares fundamentales del
desarrollo tecnológico y científico
contemporáneo. Las universidades se enfrentan
a la urgente necesidad de comprender cómo la
IA generativa afecta el desarrollo de
competencias específicas en matemáticas,
física, ingeniería y ciencias de la computación,
mientras que los estudiantes navegan entre las
oportunidades de mejora en su aprendizaje
conceptual y los riesgos potenciales para el
desarrollo de habilidades de pensamiento crítico
y resolución autónoma de problemas. La
velocidad con la que estas herramientas se han
integrado en la formación STEM ha superado la
capacidad de las instituciones educativas para
evaluar empíricamente su impacto en el
desarrollo de competencias específicas,
generando un vacío que requiere investigación
cuantitativa rigurosa.
Los estudios recientes han comenzado a mapear
este territorio inexplorado, revelando un
panorama complejo sobre el impacto de la IA
generativa en el desarrollo de competencias
STEM. Chan y Hu (2023) identificaron que los
estudiantes universitarios perciben beneficios
significativos en el uso de IA generativa para el
apoyo en resolución de problemas matemáticos,
programación y análisis de datos, aunque
también expresan preocupaciones sobre la
dependencia tecnológica y la potencial atrofia
de habilidades fundamentales. Esta dualidad
entre beneficios percibidos y riesgos para el
desarrollo autónomo de competencias STEM se
ha convertido en un tema central en la literatura
emergente. La investigación empírica sobre los
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 178
efectos reales de la IA generativa en el
desarrollo de competencias STEM ha arrojado
resultados que requieren análisis cuantitativo
más profundo. Liu et al. (2025) realizaron un
meta-análisis que sintetiza los efectos de la IA
generativa en los resultados de aprendizaje,
proporcionando evidencia cuantitativa sobre su
impacto en el rendimiento en matemáticas,
ciencias e ingeniería, así como en la adquisición
de competencias técnicas específicas. Sin
embargo, estos hallazgos deben ser
contextualizados considerando factores como el
tipo de competencia STEM evaluada, el nivel
de complejidad conceptual y las características
específicas de cada disciplina científica.
La perspectiva docente en disciplinas STEM
constituye otro ángulo crucial para comprender
este fenómeno. Lee et al. (2024) exploraron las
percepciones de los educadores universitarios
sobre el impacto de la IA generativa en el
aprendizaje y la enseñanza de materias
científicas y tecnológicas, revelando una gama
de expectativas y preocupaciones específicas
sobre el desarrollo de competencias como
pensamiento algorítmico, razonamiento
matemático y habilidades de programación. La
divergencia entre las perspectivas estudiantiles
y docentes en contextos STEM, documentada
por Kim et al. (2025), sugiere la existencia de
brechas significativas en la comprensión sobre
cómo estas tecnologías impactan el desarrollo
de competencias técnicas especializadas. La
cuestión de la integridad académica en
disciplinas STEM ha emergido como una
preocupación específica en este debate. Yusuf
et al. (2024) han planteado la interrogante
fundamental sobre si la IA generativa
representa una amenaza para el desarrollo
auténtico de competencias STEM o, por el
contrario, constituye una herramienta que puede
potenciar el aprendizaje de conceptos
matemáticos, científicos y tecnológicos. Esta
tensión entre dependencia tecnológica y
fortalecimiento de competencias ha catalizado
el desarrollo de nuevos enfoques evaluativos
específicos para disciplinas STEM que buscan
medir el desarrollo real de habilidades técnicas.
El desarrollo de la alfabetización en IA
generativa específicamente orientada a
competencias STEM se ha identificado como
un componente esencial para la integración
exitosa de estas tecnologías en la formación
científica y tecnológica. Chen et al. (2025) han
examinado cómo los estudiantes adoptan,
interactúan y evalúan estas herramientas en
contextos STEM, con particular énfasis en el
desarrollo de competencias como modelado
matemático, programación y análisis de datos.
Ayyoub et al. (2025) han investigado los
factores que influyen en la alfabetización en IA
de los educadores en disciplinas STEM,
identificando competencias específicas
necesarias para integrar efectivamente estas
tecnologías en la enseñanza de matemáticas,
ciencias e ingeniería. La investigación sobre
factores determinantes de adopción de IA
generativa en contextos STEM ha revelado
patrones específicos relacionados con el
desarrollo de competencias técnicas. Alotaibi
(2025) ha explorado los determinantes de la
adopción de IA generativa por parte de
estudiantes universitarios en disciplinas STEM,
identificando el papel mediador de la confianza
tecnológica en la relación entre uso de IA y
desarrollo de competencias matemáticas,
científicas y de ingeniería. Este enfoque permite
comprender mejor los mecanismos que facilitan
u obstaculizan la integración efectiva de estas
herramientas en el proceso de adquisición de
competencias STEM especializadas.
El impacto de la IA generativa en los sistemas
de evaluación de competencias STEM ha sido
objeto de análisis sistemático por parte de Xia
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 179
et al. (2024), quienes han documentado las
transformaciones en las prácticas evaluativas
específicas para disciplinas científicas y
tecnológicas, incluyendo cambios en la
evaluación de habilidades de resolución de
problemas, pensamiento algorítmico y
competencias de programación. Esta línea de
investigación es particularmente relevante dado
que la evaluación de competencias STEM
presenta desafíos únicos relacionados con la
medición de habilidades técnicas específicas y
la autenticidad del desarrollo de competencias.
La síntesis de la literatura existente sobre
aplicaciones de IA generativa en educación
STEM, como la realizada por Qian (2025), ha
permitido identificar tendencias específicas en
el desarrollo de competencias científicas y
tecnológicas, beneficios particulares para el
aprendizaje de matemáticas y ciencias, y
limitaciones específicas en el desarrollo de
habilidades de pensamiento crítico en contextos
STEM. Estas revisiones sistemáticas
proporcionan marcos conceptuales esenciales
para orientar futuras investigaciones
cuantitativas sobre el impacto de la IA
generativa en competencias STEM específicas.
A partir de esta base teórica y empírica, el
presente estudio se propone analizar
cuantitativamente el impacto de la IA
generativa en el desarrollo de competencias
STEM en estudiantes universitarios, con
particular énfasis en la medición objetiva de
habilidades matemáticas, científicas y
tecnológicas. La hipótesis central que guía esta
investigación sostiene que el uso de IA
generativa produce efectos diferenciados en el
desarrollo de competencias STEM, siendo más
beneficioso para competencias de nivel
cognitivo superior (análisis, síntesis,
evaluación) que para competencias
fundamentales (conocimiento, comprensión,
aplicación básica). Esta hipótesis se deriva de la
evidencia empírica previa que sugiere que la IA
generativa puede potenciar procesos cognitivos
complejos mientras que podría generar
dependencia en habilidades básicas de cálculo y
resolución algorítmica. El diseño metodológico
del presente estudio se fundamenta en un
enfoque cuantitativo que emplea mediciones
estandarizadas de competencias STEM, análisis
estadístico multivariado y técnicas de inferencia
causal para determinar el impacto real de la IA
generativa en el desarrollo de habilidades
específicas. Esta aproximación metodológica
cuantitativa se alinea con la necesidad de
generar evidencia empírica robusta sobre la
efectividad de estas tecnologías en contextos
STEM, proporcionando datos objetivos que
puedan informar decisiones pedagógicas y
políticas institucionales. La coherencia entre el
diseño cuantitativo y las hipótesis planteadas
garantiza que los resultados contribuyan
significativamente a la comprensión empírica
del fenómeno y proporcionen orientaciones
basadas en evidencia para la integración
efectiva de la IA generativa en la formación
STEM.
Materiales y Métodos
El presente estudio adopta un diseño cuasi-
experimental de grupos de comparación con
mediciones pre-post, orientado a evaluar el
impacto de la inteligencia artificial generativa
en el desarrollo de competencias STEM. La
investigación se estructura bajo un paradigma
cuantitativo, lo que permite la medición
objetiva de habilidades específicas y el análisis
estadístico de las diferencias entre grupos
expuestos y no expuestos al uso de IA
generativa. La asignación de los participantes a
los grupos se realizó mediante un proceso de
estratificación por carrera e institución, sin
aleatorización, procurando mantener
equivalencia estadística en variables clave
como edad, género y rendimiento académico
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 180
previo. La investigación incorpora un enfoque
longitudinal con tres momentos de medición
claramente definidos: una evaluación inicial o
preintervención, una evaluación intermedia a
los tres meses y una evaluación final a los seis
meses. Este diseño temporal permite capturar
tanto los efectos inmediatos como los efectos
sostenidos del uso de la IA generativa en el
desarrollo de competencias STEM específicas a
lo largo del tiempo.
La muestra final estuvo conformada por 480
estudiantes de pregrado pertenecientes a
disciplinas STEM, incluyendo ingeniería de
sistemas, ingeniería civil, matemáticas, física,
química, biología y ciencias de la computación,
procedentes de dos universidades ecuatorianas,
una de carácter público y otra privada. Los
participantes se distribuyeron equitativamente
entre el grupo de intervención (n = 240) y el
grupo de control (n = 240), con una asignación
balanceada por institución, de modo que cada
universidad aportó 120 estudiantes por grupo.
Como criterios de inclusión se consideró que los
participantes cursaran entre el segundo y sexto
semestre de sus respectivas carreras, contaran
con acceso regular a internet y dispositivos
digitales, residieran en Ecuador durante el
período de estudio y no hubieran participado
previamente en investigaciones relacionadas
con el uso de inteligencia artificial generativa.
Se excluyeron del estudio los estudiantes de
primer semestre, debido a la falta de una base
suficiente en competencias STEM, así como
aquellos de los últimos semestres, por
encontrarse enfocados en proyectos de
titulación. También se excluyeron participantes
con dificultades de aprendizaje no controladas y
aquellos que reportaron un uso profesional
previo de herramientas de IA generativa
superior a seis meses. En cuanto a las
características sociodemográficas de la muestra,
la edad promedio fue de 20.3 años (DE = 1.8),
con una distribución de género del 52 %
femenino y 48 % masculino. El nivel
socioeconómico se distribuyó en un 40 % bajo,
45 % medio y 15 % alto, mientras que la
distribución por áreas académicas correspondió
a un 25 % en ingenierías, 20 % en ciencias
exactas, 15 % en computación, 20 % en ciencias
naturales y 20 % en matemáticas aplicadas.
El procedimiento de muestreo empleado fue de
tipo estratificado por institución, considerada
como conglomerado, y por carrera, definida
como estrato. El tamaño muestral se calculó con
el objetivo de detectar un efecto mediano (d =
0.5), con un poder estadístico del 80 % y un
nivel de significancia de α = 0.05, ajustando el
cálculo por una tasa estimada de deserción del
15 %, lo que resultó en 240 participantes por
grupo, un margen de error del 4.5 % y un
intervalo de confianza del 95 %. La asignación
a los grupos fue no aleatoria, pero se aplicó un
proceso de pareamiento para asegurar la
equivalencia en las variables basales relevantes.
La recolección de datos se fundamentó en un
conjunto de instrumentos validados, diseñados
específicamente para medir competencias
STEM en contextos de educación superior. El
instrumento principal fue la Batería de
Evaluación de Competencias STEM (BECS),
desarrollada para este estudio mediante un
riguroso proceso de validación que incluyó la
evaluación de la validez de contenido por un
panel de expertos, la validez de constructo a
través de análisis factorial confirmatorio y la
validez de criterio mediante correlaciones con
medidas establecidas de rendimiento
académico. La BECS evalúa cinco dimensiones
centrales de las competencias STEM:
competencias matemáticas fundamentales,
habilidades de razonamiento científico,
competencias de resolución de problemas,
habilidades de programación y pensamiento
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 181
algorítmico, y competencias de análisis e
interpretación de datos.
La confiabilidad de la BECS se estableció
mediante coeficientes alfa de Cronbach
superiores a 0.85 en todas las subescalas, así
como coeficientes de estabilidad test-retest
superiores a 0.80 en un intervalo de dos
semanas. La validez de constructo fue
confirmada mediante análisis factorial
confirmatorio, el cual evidenció un ajuste
satisfactorio del modelo teórico propuesto, con
valores de CFI = 0.95, RMSEA = 0.06 y SRMR
= 0.05. Adicionalmente, se implementaron
controles para minimizar el efecto de práctica,
mediante la elaboración de formas paralelas de
los instrumentos utilizados en las mediciones
repetidas Como instrumentos complementarios,
se empleó el Cuestionario de Patrones de Uso
de IA Generativa (CPUIG), destinado a
documentar la frecuencia, los tipos de uso y las
percepciones de los participantes respecto a
estas tecnologías. Este cuestionario fue
adaptado a partir de escalas existentes y
validado mediante análisis de confiabilidad y
validez en una muestra piloto de 120
estudiantes, distribuidos equitativamente entre
ambas universidades. Asimismo, se utilizó la
Escala de Autoeficacia en Competencias STEM
(EACS) para medir las percepciones de
competencia de los participantes y el Inventario
de Estilos de Aprendizaje en Ciencias (IEAC),
con el fin de controlar el efecto de las
diferencias individuales en los enfoques de
aprendizaje. La implementación del estudio se
desarrolló siguiendo un protocolo estandarizado
que garantizó la fidelidad del proceso y la
comparabilidad de los datos entre participantes
e instituciones. En este marco, el grupo de
intervención recibió acceso estructurado a un
conjunto diversificado de herramientas de
inteligencia artificial generativa,
específicamente seleccionadas para optimizar el
desarrollo de cada una de las competencias
STEM evaluadas, tal como se detalla en la
Tabla 1.
Tabla 1. Plataformas de IA generativa por
competencia
Competencia
Plataforma
Funcionalidad
Principal
Matemáticas
Wolfram
Alpha
Cálculo simbólico
Symbolab
Resolución paso a paso
Razonamiento
Perplexity
Búsqueda científica
Bard
Formulación hipótesis
Resolución
problemas
Claude
Marcos teóricos
Programación
GitHub
Copilot
Asistencia codificación
Análisis datos
Julius AI
Modelado predictivo
Fuente: elaboración propia
Además, los participantes del grupo de
intervención recibieron una capacitación
especializada con una duración total de seis
horas, distribuidas en tres sesiones de dos horas
cada una, orientadas al uso efectivo de
plataformas de inteligencia artificial generativa
para el desarrollo de competencias STEM
específicas. La primera sesión se centró en los
fundamentos de la IA generativa y en el
fortalecimiento de las competencias
matemáticas, abordando técnicas de prompt
engineering aplicadas a la resolución de
problemas matemáticos, el uso de herramientas
como Wolfram Alpha y Symbolab para cálculo
avanzado, y la integración de modelos de
lenguaje como ChatGPT-4 y Claude para la
comprensión y explicación de conceptos
matemáticos complejos. La segunda sesión
estuvo orientada al razonamiento científico y a
la resolución de problemas, e incluyó
estrategias de búsqueda científica asistida por
IA mediante plataformas como Perplexity y
Consensus, la aplicación de herramientas como
Bard para el análisis de fenómenos científicos,
y el uso de metodologías de resolución
sistemática de problemas con apoyo de
inteligencia artificial. La tercera sesión se
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 182
enfocó en programación y análisis de datos,
abordando el uso avanzado de herramientas de
desarrollo como GitHub Copilot, el análisis
estadístico asistido por IA mediante Julius AI y
DataCamp Workspace, así como la discusión y
aplicación de protocolos éticos y
procedimientos de verificación de resultados
generados por sistemas de inteligencia artificial.
Cada participante del grupo de intervención
recibió un manual de buenas prácticas
específico para cada plataforma utilizada, el
cual incluyó estrategias para la verificación de
respuestas, la identificación de limitaciones
conocidas de cada herramienta y lineamientos
éticos para su uso en contextos académicos. De
manera complementaria, se implementó un
sistema de monitoreo que registró patrones de
uso de las herramientas de IA generativa sin
comprometer la privacidad de los participantes,
lo que permitió realizar análisis detallados sobre
la efectividad diferencial de cada plataforma en
función del tipo de competencia STEM
evaluada. El grupo de control mantuvo acceso
exclusivo a los recursos tradicionales de
aprendizaje disponibles en ambas
universidades, tales como bibliotecas digitales,
laboratorios de cómputo convencionales y
software educativo estándar. Estos participantes
no recibieron capacitación formal en el uso de
inteligencia artificial generativa, aunque no se
les prohibió su utilización a nivel personal. Para
controlar posibles efectos de contaminación, se
implementaron mecanismos de monitoreo del
uso no autorizado de IA generativa mediante
autorreportes mensuales y análisis de patrones
en la entrega de trabajos académicos.
Las mediciones se realizaron en entornos
controlados, utilizando los laboratorios de
computación de ambas universidades, con
supervisión directa de asistentes de
investigación capacitados específicamente para
este estudio. Cada sesión de evaluación tuvo
una duración aproximada de 180 minutos,
incluyendo pausas programadas para minimizar
el efecto de la fatiga. Asimismo, se aplicaron
protocolos estrictos de confidencialidad y
anonimización de la información, asignando
códigos únicos a cada participante con el fin de
permitir el seguimiento longitudinal sin
comprometer la privacidad individual. La
estandarización de los procedimientos entre
ambas instituciones se garantizó mediante la
implementación de un manual operativo
detallado, la realización de sesiones de
capacitación uniformes para todos los asistentes
de investigación y la ejecución de auditorías
periódicas destinadas a verificar la fidelidad de
la implementación del protocolo. Para
comprobar la equivalencia inicial entre los
grupos en la fase de pretest, se aplicaron
pruebas t de Student en el caso de variables
numéricas, como edad, rendimiento académico
previo y puntajes iniciales en la BECS, así como
pruebas de chi-cuadrado para variables
categóricas, incluyendo género, nivel
socioeconómico y distribución por carreras.
El análisis del impacto de la intervención se
realizó mediante análisis de covarianza
(ANCOVA), con el objetivo de comparar los
puntajes postintervención ajustados entre los
grupos, controlando el efecto del pretest y de
otras covariables relevantes, como el
rendimiento académico previo.
Adicionalmente, se aplicó un análisis de
varianza de medidas repetidas para examinar
los cambios a lo largo de los tres momentos de
medición (preintervención, tres meses y seis
meses), evaluando específicamente la
interacción grupo por tiempo para determinar si
el efecto de la intervención difirió
significativamente entre el grupo de
intervención y el grupo de control a lo largo del
período de estudio.
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 183
Resultados y Discusión
Análisis de equivalencia inicial entre grupos
Previo al análisis del impacto de la
intervención, se evaluó la equivalencia inicial
entre el grupo de intervención y el grupo control
mediante pruebas estadísticas apropiadas para
cada tipo de variable. Los resultados de esta
evaluación se presentan en las Tablas 2 y 3.
Tabla 2. Equivalencia inicial entre grupos: Variables numéricas
Variable
Grupo Intervención
Grupo Control
gl
M (DE)
M (DE)
Edad
20.28 (1.82)
20.32 (1.84)
478
Rendimiento académico
previo
3.42 (0.58)
3.38 (0.61)
478
BECS - Matemáticas
15.85 (3.24)
15.72 (3.18)
478
BECS - Razonamiento
científico
18.92 (4.11)
18.67 (4.05)
478
BECS - Resolución
problemas
12.34 (2.87)
12.18 (2.92)
478
BECS - Programación
9.23 (2.45)
9.08 (2.51)
478
BECS - Análisis datos
11.47 (3.02)
11.32 (2.98)
478
Fuente: Elaboración propia. Nota. BECS = Batería de Evaluación de Competencias STEM; M = media;
DE = desviación estándar; gl = grados de libertad
Los resultados de las pruebas t de Student para
muestras independientes revelaron que no
existían diferencias estadísticamente
significativas entre ambos grupos en ninguna de
las variables numéricas evaluadas (todos los
valores p > .05). Estos hallazgos confirman la
equivalencia inicial entre los grupos en
variables clave como edad, rendimiento
académico previo y puntajes basales en todas
las dimensiones de competencias STEM
evaluadas.
Tabla 3. Equivalencia inicial entre grupos: Variables categóricas
Variable
Grupo Intervención
Grupo Control
χ²
gl
p
n (%)
n (%)
Género
0.38
1
.536
Femenino
126 (52.5)
123 (51.3)
Masculino
114 (47.5)
117 (48.8)
Nivel socioeconómico
1.24
2
.538
Bajo
98 (40.8)
94 (39.2)
Medio
106 (44.2)
110 (45.8)
Alto
36 (15.0)
36 (15.0)
Distribución por carreras
2.18
4
.702
Ingenierías
61 (25.4)
59 (24.6)
Ciencias exactas
47 (19.6)
49 (20.4)
Computación
37 (15.4)
35 (14.6)
Ciencias naturales
48 (20.0)
50 (20.8)
Matemáticas aplicadas
47 (19.6)
47 (19.6)
Fuente: Elaboración propia. Nota. Los grupos fueron equivalentes en todas las variables categóricas
Las pruebas de chi-cuadrado confirmaron que
no existían diferencias significativas en la
distribución de género (χ² = 0.38, p = .536),
nivel socioeconómico (χ² = 1.24, p = .538), ni
distribución por carreras (χ² = 2.18, p = .702)
entre ambos grupos, validando la equivalencia
inicial necesaria para un diseño cuasi-
experimental robusto.
Análisis de Covarianza (ANCOVA)
Se realizó un análisis de covarianza para cada
dimensión de competencias STEM,
controlando por los puntajes pre-intervención y
el rendimiento académico previo. Los
resultados se presentan en la Tabla 4.
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 184
Tabla 4. Análisis de covarianza: Efecto de la IA generativa en competencias STEM
Dimensión
Grupo
Intervención
Grupo
Control
F
gl
p
η²p
M ajustada
(EE)
M ajustada
(EE)
Matemáticas
19.84 (0.18)
16.23 (0.18)
201.45
1, 476
<.001
.297
Razonamiento
científico
24.67 (0.22)
19.45 (0.22)
278.32
1, 476
<.001
.369
Resolución
problemas
16.92 (0.17)
12.84 (0.17)
289.76
1, 476
<.001
.378
Programación
12.58 (0.15)
9.34 (0.15)
232.11
1, 476
<.001
.328
Análisis datos
15.73 (0.19)
11.68 (0.19)
226.84
1, 476
<.001
.323
Fuente: Elaboración propia. Nota. Las medias están ajustadas por puntajes pre-intervención y
rendimiento académico previo; EE = error estándar; η²p = eta cuadrado parcial.
Los resultados del ANCOVA revelaron efectos
estadísticamente significativos de la
intervención con IA generativa en todas las
dimensiones de competencias STEM evaluadas
(todos los valores p < .001). Los tamaños del
efecto fueron grandes según los criterios de
Cohen (1988), variando desde η²p = .297 para
matemáticas hasta η²p = .378 para resolución de
problemas. La dimensión con mayor impacto
fue resolución de problemas, seguida por
razonamiento científico, mientras que
matemáticas mostró el menor efecto, aunque
aún sustancial.
Análisis de medidas repetidas
Para evaluar la evolución temporal del impacto
de la IA generativa, se realizó un ANOVA de
medidas repetidas con tres momentos de
medición. A continuación, se presentan los
resultados asociados a las medidas repetidas en
la tabla 5.
Tabla 5. ANOVA de medidas repetidas: Efectos
temporales de la IA generativa
Efecto
F
gl
p
η²p
Tiempo
847.23
2, 956
<.001
.639
Grupo
412.56
1, 478
<.001
.463
Tiempo ×
Grupo
198.74
2, 956
<.001
.294
Fuente: Elaboración propia. Nota. Análisis
basado en puntajes compuestos de
competencias STEM; corrección de esfericidad
aplicada cuando fue necesaria.
El análisis reveló efectos principales
significativos tanto del tiempo como del grupo,
así como una interacción significativa tiempo ×
grupo. Esta interacción indica que el patrón de
cambio en competencias STEM difiere entre los
grupos de intervención y control a lo largo del
tiempo, sugiriendo que los efectos de la IA
generativa se mantienen y potencialmente se
incrementan durante el período de seguimiento.
Tabla 6. Medias y desviaciones estándar por
tiempo y grupo
Momento
Grupo Intervención
Grupo
Control
M (DE)
M (DE)
Pre-intervención
67.81 (11.24)
67.15 (11.08)
3 meses
82.43 (12.67)
69.28 (11.45)
6 meses
89.74 (13.92)
70.51 (11.82)
Fuente: Elaboración propia. Nota. Puntajes
basados en la suma de todas las dimensiones de
competencias STEM (rango: 0-108).
Las medias por momento temporal muestran
que mientras el grupo control mantuvo puntajes
relativamente estables a lo largo del tiempo, el
grupo de intervención experimentó incrementos
progresivos sustanciales, con ganancias de
14.62 puntos a los 3 meses y 21.93 puntos a los
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 185
6 meses comparado con la línea base. La Figura
1 ilustra los puntajes compuestos de
competencias STEM en los tres momentos de
medición. Se evidencia un incremento
progresivo en el grupo de intervención, en
contraste con la estabilidad del grupo control.
Esta tendencia respalda la interacción
significativa tiempo × grupo reportada en el
análisis de medidas repetidas.
Figura 1. Evolución temporal de competencias
STEM por grupo de estudio
Fuente: Elaboración propia. Nota. Los puntajes
representan la suma total de competencias
STEM (rango: 0-108). Las líneas sólidas
indican el grupo de intervención, las neas
punteadas el grupo control.
Para evaluar la hipótesis central sobre efectos
diferenciados según el nivel cognitivo, se
categorizaron las competencias según la
taxonomía de Bloom y se analizaron
separadamente.
Tabla 7. Impacto de IA generativa por nivel
cognitivo
Nivel Cognitivo
Grupo
Intervención
Grupo
Control
d de
Cohen
M (DE)
M (DE)
Competencias Básicas
(Conocimiento/Comprensión)
34.67 (5.23)
32.18
(4.98)
0.49
Competencias Superiores
(Análisis/Síntesis/Evaluación)
44.28 (6.84)
35.92
(6.12)
1.28
Fuente: Elaboración propia. Nota.
Competencias básicas incluyen elementos
fundamentales de matemáticas y programación;
competencias superiores incluyen
razonamiento científico, resolución de
problemas y análisis de datos.
Los resultados del presente estudio
proporcionan evidencia empírica robusta sobre
el impacto diferenciado de la inteligencia
artificial generativa en el desarrollo de
competencias STEM en estudiantes
universitarios ecuatorianos. Los hallazgos
principales confirman que la implementación
estructurada de herramientas de IA generativa
produce mejoras estadísticamente significativas
y prácticamente relevantes en todas las
dimensiones de competencias STEM
evaluadas, con tamaños de efecto que varían
desde grandes (η²p = .297 para matemáticas)
hasta muy grandes (η²p = .378 para resolución
de problemas). La confirmación de la hipótesis
central sobre efectos diferenciados según el
nivel cognitivo constituye un hallazgo
particularmente significativo para la
comprensión teórica del fenómeno. Los
resultados demuestran que la IA generativa es
especialmente efectiva para potenciar
competencias de orden superior como el
razonamiento científico, la resolución de
problemas complejos y el análisis crítico de
datos (d = 1.28), mientras que su impacto en
competencias básicas de conocimiento y
comprensión es más modesto (d = 0.49). Este
patrón sugiere que la IA generativa actúa como
un amplificador cognitivo que libera recursos
mentales para procesos de pensamiento más
sofisticados, consistente con las teorías de carga
cognitiva y procesamiento distribuido (Sweller,
2011).
La persistencia y el incremento progresivo de
los efectos a lo largo del tiempo, evidenciado
por la interacción significativa tiempo × grupo,
indica que los beneficios de la IA generativa no
se limitan a ganancias inmediatas sino que se
acumulan y potencian durante un uso sostenido.
Esta evidencia contradice las preocupaciones
sobre efectos superficiales o dependencia
contraproducente, sugiriendo más bien un
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 186
proceso de andamiaje cognitivo que fortalece
gradualmente las capacidades de los
estudiantes. Los resultados del presente estudio
se alinean con los hallazgos de Liu et al. (2025),
cuyo meta-análisis identificó efectos positivos
de la IA generativa en el rendimiento STEM,
aunque los tamaños de efecto reportados en
nuestro estudio son considerablemente
mayores. Esta diferencia puede atribuirse a la
implementación estructurada y el
entrenamiento específico proporcionado a los
participantes, contrastando con el uso más
espontáneo y menos sistematizado típico de
otros estudios.
Las percepciones estudiantiles documentadas
por Chan y Hu (2023) sobre beneficios
significativos en resolución de problemas
matemáticos y programación encuentran
validación empírica en nuestros resultados,
particularmente en las dimensiones de
resolución de problemas (η²p = .378) y
programación (η²p = .328). Sin embargo,
nuestros hallazgos van más allá de las
percepciones subjetivas al demostrar impactos
objetivos medibles en competencias
específicas. La divergencia entre perspectivas
estudiantiles y docentes reportada por Kim et al.
(2025) puede explicarse parcialmente por
nuestros resultados sobre efectos diferenciados
según el nivel cognitivo. Los docentes podrían
estar más preocupados por el impacto en
competencias básicas (donde nuestros
resultados muestran efectos más modestos),
mientras que los estudiantes experimentan más
directamente los beneficios en competencias
superiores (donde nuestros resultados muestran
efectos muy grandes). Las líneas prioritarias de
investigación futura incluyen estudios
longitudinales que evalúen los efectos de la IA
generativa en competencias STEM durante
períodos extendidos (2-4 años) y su
transferencia a contextos profesionales post-
graduación. Asimismo, estudios cualitativos
que complementen los resultados cuantitativos
podrían proporcionar comprensión más
profunda sobre los procesos experienciales y las
estrategias estudiantiles que median los efectos
observados.
Conclusiones
Los hallazgos del presente estudio confirman
que la implementación estructurada de
inteligencia artificial generativa produce
mejoras estadísticamente significativas y
prácticamente relevantes en el desarrollo de
competencias STEM en estudiantes
universitarios. La hipótesis central sobre efectos
diferenciados según el nivel cognitivo fue
confirmada, demostrando que la IA generativa
es especialmente efectiva para potenciar
competencias de orden superior (análisis,
síntesis, evaluación) con un tamaño de efecto
muy grande (d = 1.28), mientras que su impacto
en competencias básicas es más modesto
aunque significativo (d = 0.49). La evidencia
sobre efectos sostenidos y progresivos a lo largo
del tiempo, con incrementos acumulativos en
competencias STEM de 21.93 puntos a los seis
meses, desafía las preocupaciones sobre
dependencia contraproducente y sugiere que
estas herramientas actúan como andamiaje
cognitivo que fortalece las capacidades
estudiantiles de manera duradera.
Los resultados contribuyen significativamente a
la teoría del aprendizaje mediado por
tecnología, evidenciando que la IA generativa
opera como herramienta de mediación cognitiva
que modifica cualitativamente los procesos de
pensamiento. El patrón de efectos diferenciados
apoya las teorías de carga cognitiva y
procesamiento distribuido, sugiriendo que la IA
generativa libera recursos mentales para
procesos de pensamiento más sofisticados. Para
las instituciones de educación superior, los
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 1.2
Edición Especial UG 2026
Página 187
hallazgos indican que la integración sistemática
de IA generativa en currículos STEM, mediante
capacitación estructurada y uso guiado, puede
generar mejoras sustanciales en competencias
críticas para el desempeño profesional. Los
educadores pueden aprovechar estos resultados
para diseñar estrategias pedagógicas que
maximicen los beneficios en competencias de
pensamiento crítico y resolución de problemas
complejos, manteniendo énfasis en el desarrollo
de habilidades fundamentales mediante
métodos tradicionales.
Referencias Bibliográficas
Alotaibi, S. (2025). Determinants of generative
artificial intelligence (GenAI) adoption
among university students and its impact on
academic performance: The mediating role
of trust in technology. Interactive Learning
Environments, 130.
https://doi.org/10.1080/10494820.2025.249
2785
Ayyoub, A., Khlaif, Z., Shamali, M., Eideh, B.,
Assali, A., Hattab, M., Barham, K., &
Bsharat, T. (2025). Advancing higher
education with GenAI: Factors influencing
educator AI literacy. Frontiers in Education,
10, Article 1530721.
https://doi.org/10.3389/feduc.2025.1530721
Chan, C., & Hu, W. (2023). Students’ voices on
generative AI: Perceptions, benefits, and
challenges in higher education. International
Journal of Educational Technology in
Higher Education, 20, Article 43.
https://doi.org/10.1186/s41239-023-00411-
8
Chen, K., Tallant, A., & Selig, I. (2025).
Exploring generative AI literacy in higher
education: Student adoption, interaction,
evaluation and ethical perceptions.
Information and Learning Sciences, 126(1
2), 132148. https://doi.org/10.1108/ILS-
10-2023-0160
Kim, J., Klopfer, M., & Pike, D. (2025).
Examining faculty and student perceptions
of generative AI in university courses.
Innovative Higher Education.
https://doi.org/10.1007/s10755-024-09774-
w
Lee, D., Arnold, M., Srivastava, A., Plastow,
K., Strelan, P., Ploeckl, F., Lekkas, D., &
Palmer, E. (2024). The impact of generative
AI on higher education learning and
teaching: A study of educators’ perspectives.
Computers and Education: Artificial
Intelligence, 6, 100221.
https://doi.org/10.1016/j.caeai.2024.100221
Liu, X., Guo, B., He, W., & Hu, X. (2025).
Effects of generative artificial intelligence
on K-12 and higher education students’
learning outcomes: A meta-analysis. Journal
of Educational Computing Research, 0(0).
https://doi.org/10.1177/0735633125132918
5
Qian, Y. (2025). Pedagogical applications of
generative AI in higher education: A
systematic review of the field. TechTrends.
https://doi.org/10.1007/s11528-025-01100-
1
Xia, Q., Weng, X., Ouyang, F., Lin, T., Chiu,
T., Jering, L., Lam, J., & Shen, J. (2024). A
scoping review on how generative artificial
intelligence transforms assessment in higher
education. International Journal of
Educational Technology in Higher
Education, 21, Article 40.
https://doi.org/10.1186/s41239-024-00468-z
Yusuf, A., Pervin, N., & González, M. (2024).
Generative AI and the future of higher
education: A threat to academic integrity or
reformation? International Journal of
Educational Technology in Higher
Education, 21, Article 21.
https://doi.org/10.1186/s41239-024-00453-
6
Esta obra está bajo una licencia de
Creative Commons Reconocimiento-No Comercial
4.0 Internacional. Copyright © Geovanny
Francisco Ruiz Muñoz y Juan Carlos Vasco
Delgado.