Página 122
libre, sino como un elemento que debe ser
señalado de forma explícita.
La polarización referida al ítem 3 y la
distribución trimodal del ítem 7 indican que la
heterogeneidad de perfiles identificada permite
la diferenciación de estrategias de andamiaje:
para los estudiantes que delegan el análisis en la
herramienta, resulta pertinente la aplicación de
secuencias de andamiaje inverso (primero sin
IA y luego con IA como contraste), y para los
que ya la utilizan estratégicamente, el desafío se
concentra en favorecer su desplazamiento hacia
los niveles de evaluación y creación a través de
tareas de síntesis y producción original. En
tercer lugar, el diseño de rúbricas de evaluación
debe incluir de forma diferenciada, en los
niveles de pensamiento de la IA Generativa, el
uso crítico de la herramienta, diferenciando al
estudiante que se apoya en la IA para ampliar su
argumentación y al que la utiliza en el sentido
de suplantar la argumentación. De esta forma,
la evaluación incide en la autorregulación y
desestima la dependencia acrítica.
Referencias Bibliográficas
Aiken, L. (1985). Three coefficients for
analyzing the reliability and validity of
ratings. Educational and Psychological
Measurement, 45(1), 131-142.
https://doi.org/10.1177/0013164485451012
Anderson, L., & Krathwohl, D. (2001). A
taxonomy for learning, teaching, and
assessing: A revision of Bloom's taxonomy
of educational objectives. Longman.
https://quincycollege.edu/wp-
content/uploads/Anderson-and-
Krathwohl_Revised-Blooms-Taxonomy.pdf
Gonsalves, C. (2024). Generative AI’s impact
on critical thinking: Revisiting Bloom’s
taxonomy. Journal of Marketing Education,
1-16.
https://doi.org/10.1177/0273475324130598
0
Torrez, J. (2025). La inteligencia artificial
generativa en la educación superior: Entre el
apoyo y la dependencia. Revista Científica
Tecnológica, 8(3), 110-119.
https://doi.org/10.5377/recientec.v8i3.2187
1
Vásquez, F., Vega, D., Defaz, M., Vasco, C., &
López, J. (2024). Estrategias educativas por
medio de herramientas digitales basadas en
inteligencia artificial: Revisión bibliográfica.
Ciencia Latina Revista Científica
Multidisciplinar, 7(6), 5691-5708.
https://doi.org/10.37811/clrcm.v7i6.9110
Lozada, R., López, E., Espinoza, M., Arias, N.,
& Quille, G. (2023). Los riesgos de la
inteligencia artificial en la educación.
Ciencia Latina Revista Científica
Multidisciplinar, 7(5), 7219-7234.
https://doi.org/10.37811/clrcm.v7i5.8301
Pintrich, P. (2004). A conceptual framework for
assessing motivation and self-regulated
learning in college students. Educational
Psychology Review, 16(4), 385-407.
https://doi.org/10.1023/B:EDPR.000004902
3.56165.ef
Gkintoni, E., Dimakos, I., & Halkiopoulos, C.
(2025). Cognitive load and self-regulated
learning in digital environments:
Implications for AI-mediated instruction.
Journal of Educational Technology
Research, 12(1), 45-62.
https://doi.org/10.1007/s10648-025-09987-
4
Schneider, S., Beege, M., Nebel, S.,
Schnaubert, L., & Rey, G. (2022). The
cognitive-affective-social theory of learning
in digital environments (CASTLE).
Educational Psychology Review, 34(1), 1-
38. https://doi.org/10.1007/s10648-021-
09626-5
Sánchez, M. (2025). Pereza metacognitiva y
descarga cognitiva en la era de la IA
generativa: Riesgos y uso responsable.
Investigación en Educación Médica, 14(56),
6-9.
https://doi.org/10.22201/fm.20075057e.202
5.56.25743
Rozenblit, L., & Keil, F. (2002). The
misunderstood limits of folk science: An