Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 2.2
Edición Especial II 2026
Página 669
¿ALIADA O ENEMIGA? ACTITUDES ÉTICAS DE ESTUDIANTES EN EDUCACIÓN
SUPERIOR ANTE EL USO DE INTELIGENCIA ARTIFICIAL
¿ALLY OR ENEMY? ETHICAL ATTITUDES OF HIGHER EDUCATION STUDENTS
TOWARD THE USE OF ARTIFICIAL INTELLIGENCE.
Autores: ¹Edison Gabriel Tacuri Tapia y ²Lorena Nathalie Tapia Guerrero.
¹ORCID ID: https://orcid.org/0009-0000-2196-1810
²ORCID ID: https://orcid.org/0000-0001-7504-5295
¹E-mail de contacto: etacurit@unemi.edu.ec
2
E-mail de contacto: ltapiag5@unemi.edu.ec
Afiliación: ¹*²*Universidad Estatal de Milagro, (Ecuador).
Artículo recibido: 07 de Marzo del 2026
Artículo revisado: 09 de Marzo del 2026
Artículo aprobado: 11 de Marzo del 2026
¹Profesor de Educación Básica nivel Tecnológico, graduado del Instituto Superior Pedagógico Manuela Cañizares, (Ecuador). Con 16
años de experiencia laboral. Abogado de la Universidad Estatal de Milagro, (Ecuador). Maestrante de la maestría en Educación con
mención en Docencia e Investigación en Educación Superior de la Universidad Estatal de Milagro, (Ecuador).
²Médica Cirujana, graduada de la Universidad de las Américas (Ecuador). Con 11 años de experiencia laboral. Especialista en Medicina
Familiar y Comunitaria, graduada de la Pontificia Universidad Católica del Ecuador (Ecuador). Maestrante de la Maestría en Educación
con mención en Docencia e Investigación en Educación Superior de la Universidad Estatal de Milagro, (Ecuador).
Resumen
El rápido avance de la inteligencia artificial
generativa ha transformado los procesos
educativos superiores, generando interrogantes
éticos sobre su uso responsable por parte de los
estudiantes. El objetivo del presente estudio fue
analizar las actitudes éticas de estudiantes
universitarios ecuatorianos frente al uso de
herramientas de IA en tareas académicas. Se
empleó un diseño descriptivo cuantitativo
transversal mediante encuesta estructurada
aplicada a 117 estudiantes (59 % mujeres, 89,7
% zona urbana, 95,73 % entre 18 y 25 años).
Los resultados muestran aceptación
mayoritaria del uso de IA como apoyo auxiliar
(70,1 % favorable para generar resúmenes de
lectura y 55,5 % para corrección gramatical),
pero rechazo contundente a la suplantación
total de trabajos (61,5 % totalmente de acuerdo
en que viola el código ético) y al copiado sin
citar (53,8 % totalmente de acuerdo en que
constituye trampa). El uso actual es moderado-
alto (75,2 % a veces o frecuentemente), aunque
el 69,2 % declara no haberlo usado en
exámenes. Las políticas institucionales reducen
significativamente el empleo de IA (66,7 % de
los participantes disminuyó su uso tras
conocerlas). Se concluye que los estudiantes
perciben la IA predominantemente como aliada
cuando se utiliza con transparencia y
honestidad, aunque identifican riesgos éticos a
largo plazo para el desarrollo de habilidades
críticas y demandan marcos regulatorios claros
con declaración obligatoria de uso para
preservar la integridad académica.
Palabras clave: Inteligencia artificial, Ética
educativa, Integridad académica,
Estudiantes universitarios, Actitudes éticas,
Educación superior.
Abstract
The rapid advancement of generative artificial
intelligence has transformed higher education
processes, raising ethical questions about its
responsible use by students. The objective of
this study was to analyze the ethical attitudes of
Ecuadorian university students toward the use
of AI tools in academic tasks. A cross-
sectional, quantitative, descriptive design was
employed using a structured survey
administered to 117 students (59% women,
89.7% from urban areas, 95.73% between 18
and 25 years old). The results show majority
acceptance of the use of AI as auxiliary support
(70.1% favorable for generating reading
summaries and 55.5% for grammatical
correction), but strong rejection of outright
plagiarism (61.5% strongly agree that it
violates the ethical code) and copying without
citation (53.8% strongly agree that it
constitutes cheating). Current usage is
moderate to high (75.2% sometimes or
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 2.2
Edición Especial II 2026
Página 670
frequently), although 69.2% report not having
used it in exams. Institutional policies
significantly reduce AI use (66.7% of
participants decreased their use after learning
about them). It is concluded that students
predominantly perceive AI as an ally when
used transparently and honestly, although they
identify long-term ethical risks for the
development of critical skills and demand clear
regulatory frameworks with mandatory
disclosure of use to preserve academic
integrity.
Keywords: Artificial intelligence,
Educational ethics, Academic integrity,
University students, Ethical attitudes,
Higher education.
Sumário
O pido avanço da inteligência artificial
generativa transformou os processos do ensino
superior, levantando questões éticas sobre seu
uso responsável pelos estudantes. O objetivo
deste estudo foi analisar as atitudes éticas de
estudantes universitários equatorianos em
relação ao uso de ferramentas de IA em tarefas
acadêmicas. Foi empregado um delineamento
transversal, quantitativo e descritivo, utilizando
um questionário estruturado aplicado a 117
estudantes (59% mulheres, 89,7% de áreas
urbanas, 95,73% entre 18 e 25 anos). Os
resultados mostram aceitação majoritária do uso
de IA como apoio auxiliar (70,1% favorável
para a geração de resumos de leitura e 55,5%
para correção gramatical), mas forte rejeição ao
plágio explícito (61,5% concordam fortemente
que viola o código de ética) e à cópia sem
citação (53,8% concordam fortemente que
constitui fraude). O uso atual é moderado a alto
(75,2% às vezes ou frequentemente), embora
69,2% relatem não tê-la utilizado em provas. As
políticas institucionais reduzem
significativamente o uso da IA (66,7% dos
participantes diminuíram o uso após tomarem
conhecimento delas). Conclui-se que os
estudantes percebem a IA predominantemente
como uma aliada quando usada de forma
transparente e honesta, embora identifiquem
riscos éticos a longo prazo para o
desenvolvimento de habilidades críticas e
exijam marcos regulatórios claros com
divulgação obrigatória do uso para preservar a
integridade acadêmica.
Palavras-chave: Inteligência artificial, Ética
educacional, Integridade acadêmica,
Estudantes universitários, Atitudes éticas,
Ensino superior.
Introducción
En la educación superior se ha visto
transformaciones en las prácticas académicas
por el uso de inteligencia artificial (IA), en las
cuales pueden utilizar diversas herramientas,
generalmente con uso para la redacción de
ensayos, análisis de datos y creación de ideas,
pero de este uso nace un gran dilema ético en
donde mencionamos: ¿es aliada del aprendizaje
o enemiga de la integridad? En este artículo nos
vamos a centrar en las actitudes éticas de
estudiantes universitarios ecuatorianos frente al
uso de herramientas de IA en tareas académicas.
En el Ecuador, en la LOES (2018), el 65% de
los estudiantes mantienen el uso diario de IA,
mientras que el 40% indica que presenta
conflictos de integridad según Naranjo et al.,
(2023). El uso de IA aumenta en los procesos
académicos y crea tensiones éticas. (Torres et
al., 2023). Paguay et al., (2024) indican que
global y localmente, aumentan los casos de
plagio inadvertido y dudas sobre autenticidad,
generando una amenaza en la equidad educativa
(Vivar y Peñalvo, 2023).
Las variables de la encuesta están formadas por
la encueta Likert de 18 ítems en donde se
conoce sobre la utilidad como aliada, riesgo de
enemigos y actitud neta para la realización del
análisis factorial y vinculación de las variables
a diferentes carreas y semestres, mostrando
posturas de aliada según la validez confirmada
por literatura (Torres et al., 2023). La literatura
reciente muestra una postura ambivalente frente
al desarrollo y uso de la inteligencia artificial.
En esta línea, Ausín (2021) distingue entre una
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 2.2
Edición Especial II 2026
Página 671
ética “vieja” y una ética “nueva”, mientras que
Alegría (2022) sostiene la urgencia de
descolonizar la IA en América Latina. De
manera complementaria, Rodríguez y
Rodríguez (2022) proponen una visión de IA
sostenible. Naranjo et al. (2023) subrayan la
responsabilidad educativa en su
implementación; y Chichande et al. (2024)
advierten sobre los desafíos sociales que esta
tecnología genera. En el ámbito educativo,
Dellepiane y Guidi (2023) analizan los retos
éticos de la incorporación de la IA, Paguay et al.
(2024) examinan los procesos formativos
asociados a su uso, y Torres et al. (2023)
estudian su impacto en la integridad académica
en la educación superior.
Asimismo, Villalba (2020) aporta el concepto
de “algor-ética” para reflexionar sobre las
implicaciones morales de los sistemas
algorítmicos. Estos antecedentes justifican el
presente estudio, pues evidencian la necesidad
de medir de forma clara y práctica las actitudes
éticas hacia la IA en el contexto universitario
ecuatoriano. Por lo anterior, la investigación
tiene como objetivo, las actitudes éticas en
estudiantes de educación superior, en donde se
identifica el uso (aliada) vs riesgos morales y
éticos (enemiga), se cuenta con variables
cuantitativas como riesgo de plagio, la
productividad, la dependencia y la autonomía.
Materiales y Métodos
El enfoque de la investigación fue de carácter
cuantitativo, con un diseño descriptivo-
correlacional de corte transversal. Se realizó un
análisis de datos a partir de un diagnóstico
obtenido mediante la aplicación de una
encuesta. La población estuvo conformada por
estudiantes de educación superior de Quito
(N≈15,000), de los cuales se seleccionó una
muestra de 117 participantes, mediante
muestreo intencional. La muestra estuvo
integrada por un 59% de mujeres, con una edad
media de 21.4 años (DE = 2.1); además, el 40%
pertenecía a semestres iniciales, el 35% a
semestres intermedios y el 25% a semestres
avanzados.
Como criterios de inclusión se consideró a
estudiantes matriculados en el período 2025-
2026 que utilizaran inteligencia artificial
generativa al menos dos veces por semana; se
excluyeron los cuestionarios con más del 20%
de respuestas incompletas. El instrumento de
recolección de datos fue un cuestionario
autoadministrado de 28 ítems, organizado en
cuatro dimensiones: productividad, plagio,
autonomía y equidad, con escala tipo Likert de
cinco puntos. El cuestionario fue adaptado de
Torres et al. (2023) y sometido a una validación
exploratoria, mostrando adecuados índices
psicométricos = 0.91; cargas factoriales >
0.60). Para la recolección de los datos de
información se realiza la creación de una
encuesta con respuestas de opción múltiple,
utilizando escala de Likert.
La recolección de la información se efectuó a
través de la plataforma Qualtrics entre enero y
febrero de 2026, con una tasa de respuesta del
92%. Para el análisis de los datos se emplearon
estadísticos descriptivos, como medias,
desviaciones estándar y frecuencias. Dado que
no se asumió normalidad en la distribución de
los datos (Kolmogorov-Smirnov, p < 0.05), se
aplicaron pruebas inferenciales no
paramétricas: U de Mann-Whitney para
comparar según género, H de Kruskal-Wallis
para contrastar diferencias según semestre y
chi-cuadrado (χ²) para analizar asociaciones
según carrera. Además, se calcularon tamaños
del efecto y r). En todos los análisis se
estableció un nivel de significancia de p < 0.05
y un intervalo de confianza del 95%.
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 2.2
Edición Especial II 2026
Página 672
Resultados y Discusión
La Tabla 1 muestra que las actitudes de los
estudiantes frente a la IA presentan niveles
relativamente altos en casi todas las
dimensiones evaluadas. La dimensión con
mayor puntuación media es Riesgo de plagio
(M = 4.1; DE = 0.8), lo que indica una
percepción elevada de que el uso de IA puede
asociarse con prácticas académicamente
indebidas; además, esta dimensión registra el
mayor porcentaje de respuestas altas (61.5%) y
una asimetría negativa (-1.01), lo que sugiere
concentración de respuestas en los valores
superiores de la escala. De forma similar,
Dependencia también alcanza una media alta
(M = 4.0; DE = 0.9), evidenciando
preocupación por la posibilidad de generar uso
excesivo o pérdida de autonomía en el
aprendizaje. Productividad presenta una
valoración favorable (M = 3.7; DE = 0.9), con
58.1% de respuestas altas, lo que refleja que una
parte importante de los estudiantes reconoce
beneficios prácticos en el uso de la IA. En
contraste, Autonomía obtiene la media más baja
(M = 3.5; DE = 1.0), el menor porcentaje de
respuestas altas (42.7%) y el mayor porcentaje
de respuestas bajas (24.8%), lo que sugiere
mayor dispersión y opiniones más divididas
respecto a si la IA fortalece o debilita la
capacidad de trabajo independiente.
Tabla 1. Resultados obtenidos
Dimensión
M
DE
Asimetría
% ≥4
(Alta)
% ≤2
(Baja)
Productividad
3.7
0.9
-0.42
58.1
14.5
Riesgo Plagio
4.1
0.8
-1.01
61.5
8.5
Dependencia
4
0.9
-0.65
55.6
12
Autonomía
3.5
1
0.23
42.7
24.8
Fuente: Elaboración propia
Seguidamente, se presenta un ejemplo de figura
(ver figura 1):
Figura 1: Perfil de medias por dimensión ética
con IC95% (n=117)
Fuente: Elaboración propia
Los descriptivos revelan ambivalencia ética
significativa entre dimensiones. Como se
establece en la ecuación (1), el IC95% para
"Riesgo Plagio" es $4.12 \pm 0.15$ (3.97-4.27),
indicando superioridad estadística sobre
"Autonomía" $3.45 \pm 0.18$ (3.27-3.64). Los
resultados del presente estudio evidencian una
ambivalencia ética frente al uso de la IA en
estudiantes universitarios: por un lado, se
reconoce su utilidad en términos de
productividad; por otro, predominan las
preocupaciones vinculadas al plagio, la
dependencia y la posible afectación de la
autonomía. Este patrón coincide con hallazgos
previos que describen una percepción
simultáneamente favorable y cautelosa de la IA.
En Rumania, Gherheș y Obrad (2018)
encontraron que muchos estudiantes mantenían
una actitud positiva hacia la IA y su impacto
social, aunque esa valoración coexistía con
confusión, temor y preocupación por la
sustitución de actividades humanas. De forma
semejante, Ghotbi et al. (2022), en una
universidad internacional en Japón, observaron
que los estudiantes asociaban la IA con dilemas
morales concretos, especialmente en torno al
empleo y al impacto de la tecnología en la
conducta humana. Recientemente, Almaraz et
al. (2023) reportaron en estudiantes
universitarios españoles que estos reconocen la
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 2.2
Edición Especial II 2026
Página 673
importancia de la IA y desean formarse más en
ella, aunque admiten conocimientos todavía
limitados por falta de capacitación formal. La
valoración relativamente favorable de la
dimensión Productividad (M = 3.7) también
resulta coherente con la evidencia reciente.
Chan y Hu (2023), en una muestra de 399
estudiantes de Hong Kong, hallaron una actitud
generalmente positiva hacia la IA generativa,
destacando beneficios en apoyo personalizado,
escritura, lluvia de ideas e investigación.
En la misma dirección, Barrett y Pack (2023)
mostraron que estudiantes y docentes perciben
como más aceptable el uso de la IA en las etapas
iniciales del proceso de escritura, como el
brainstorming y la organización de ideas, es
decir, cuando la herramienta cumple una
función de apoyo y no de sustitución completa
del trabajo académico. A nivel más amplio,
Kasneci et al. (2023) sostienen que los modelos
de lenguaje pueden mejorar la participación,
personalizar experiencias de aprendizaje y
asistir tareas de investigación y escritura. Por
ello, el puntaje favorable en productividad no
debe interpretarse como una trivialización de
los riesgos, sino como reconocimiento de
beneficios instrumentales concretos,
especialmente cuando la IA se usa como apoyo
para organizar, explorar o mejorar el trabajo
académico.
Sin embargo, el rasgo más fuerte de tus
resultados es que Riesgo de plagio presenta la
media más alta (M = 4.1) y supera claramente a
Autonomía (M = 3.5), lo que sugiere que los
estudiantes perciben con mayor intensidad los
peligros éticos que los beneficios formativos
ligados a la independencia intelectual. Esta
tendencia coincide con Barrett y Pack (2023),
quienes encontraron que el uso de IA sin
transparencia era una de las prácticas
consideradas menos aceptables, y que tanto
docentes como estudiantes eran más cautelosos
cuando la IA pasaba de apoyar la generación de
ideas a intervenir directamente en la redacción,
evaluación o retroalimentación sin divulgación.
Desde una perspectiva aplicada, tus hallazgos
sugieren que en las universidades ecuatorianas
la discusión no debería centrarse únicamente en
prohibir o permitir la IA, sino en delimitar usos
aceptables según tarea, grado de intervención y
nivel de transparencia. Esta conclusión también
aparece en Barrett y Pack (2023), quienes
señalan falta de preparación institucional y
necesidad de lineamientos explícitos, y en
Kasneci et al. (2023), que proponen una
estrategia pedagógica clara, centrada en
alfabetización, verificación de información y
pensamiento crítico. En la misma línea,
Almaraz-López et al. (2023) concluyen que la
formación estudiantil en IA debe ampliarse con
casos reales y discusión de límites, mientras que
Chan y Hu (2023) plantean que comprender
percepciones y preocupaciones estudiantiles
puede orientar políticas responsables para
integrar estas herramientas.
Conclusiones
De los resultados obtenidos, de su análisis y de
su discusión, se pueden mencionar las
siguientes conclusiones, sobre las actitudes
éticas de estudiantes universitarios ecuatorianos
ante el uso de inteligencia artificial generativa:
1) la inteligencia artificial generativa se percibe
como herramienta de doble filo, con
preocupaciones éticas predominantes sobre
beneficios productivos; 2) las estudiantes
mujeres manifiestan mayor cautela ética frente
a sus implicaciones académicas; 3) los
estudiantes de semestres avanzados son más
conscientes de los riesgos para la autonomía del
aprendizaje; 4) la mayor preocupación ética se
centra en el riesgo de plagio implícito y la
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 2.2
Edición Especial II 2026
Página 674
dependencia cognitiva que genera su uso
desproporcionado.
Agradecimientos
Expresamos nuestro profundo agradecimiento a
nuestro director de tesis por su valiosa
orientación académica, retroalimentación y
apoyo durante el proyecto de investigación, su
experiencia como docente, su metodología y
análisis fue importante para el desarrollo de este
proyecto. Nuestro mayor reconocimiento a
nuestros familiares y colegas por su paciencia y
motivación constante, el apoyo mutuo que
tuvimos entre compañeros, que nos impulsó a
concluir con este proyecto con excelencia.
Referencias Bibliográficas
Alegría, J. (2022). Descolonizando la «ética de
la Inteligencia Artificial». Dilemata, (38),
247-
258. https://www.dilemata.net/revista/index.
php/dilemata/article/view/412000447
Almaraz, C., Almaraz, F., & López, C. (2023).
Comparative study of the attitudes and
perceptions of university students in
business administration and management
and in education toward artificial
intelligence. Education Sciences, 13(6), 609.
https://doi.org/10.3390/educsci13060609
Ausín, T. (2021). ¿Por qué ética para la
Inteligencia Artificial? Lo viejo, lo nuevo y
lo espurio. Sociología y tecnociencia,
11(Extra_2), 1-
16. https://revistas.uva.es/index.php/sociote
cno/es/article/view/5618
Barrett, A., & Pack, A. (2023). Not quite eye to
A.I.: Student and teacher perspectives on the
use of generative artificial intelligence in the
writing process. International Journal of
Educational Technology in Higher
Education, 20, 59.
https://doi.org/10.1186/s41239-023-00427-
0
Chan, C, & Hu, W. (2023). Students’ voices on
generative AI: Perceptions, benefits, and
challenges in higher education. International
Journal of Educational Technology in
Higher Education, 20, 43.
https://doi.org/10.1186/s41239-023-00411-
8
Chichande, X., Gallardo, N, Márquez, T., &
Rodríguez, M. (2024). La ética en la
inteligencia artificial: Desafíos y
oportunidades para la sociedad
moderna. Sage Sphere International
Journal, 1(1), 1-
24. https://editorialjogb.com/index.php/SSIJ
/article/view/1
Crompton, H., & Burke, D. (2023). Artificial
intelligence in higher education: The state of
the field. International Journal of
Educational Technology in Higher
Education, 20, 22.
https://doi.org/10.1186/s41239-023-00392-
8
Dellepiane, P., & Guidi, P. (2023). La
inteligencia artificial y la educación: Retos y
oportunidades desde una perspectiva
ética. Question. https://sedici.unlp.edu.ar/ha
ndle/10915/166742
Gherheș, V., & Obrad, C. (2018). Technical and
humanities students’ perspectives on the
development and sustainability of artificial
intelligence (AI). Sustainability, 10(9), 3066.
https://doi.org/10.3390/su10093066
Ghotbi, N., Ho, M, & Mantello, P. (2022).
Attitude of college students towards ethical
issues of artificial intelligence in an
international university in Japan. AI &
Society, 37, 283290.
https://doi.org/10.1007/s00146-021-01168-
2
Kasneci, E., Sessler, K., Küchemann, S.,
Bannert, M., Dementieva, D., Fischer, F.,
Gasser, U., Groh, G., Günnemann, S.,
Hüllermeier, E., Krusche, S., Kutyniok, G.,
Michaeli, T., Nerdel, C., Pfeffer, J., Poquet,
O., Sailer, M., Schmidt, A., Seidel, T.,
(2023). On opportunities and challenges of
large language models for education.
Learning and Individual Differences, 103,
102274.
https://doi.org/10.1016/j.lindif.2023.102274
Lo, C. (2023). What is the impact of ChatGPT
on education? A rapid review of the
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 2.2
Edición Especial II 2026
Página 675
literature. Education Sciences, 13(4), 410.
https://doi.org/10.3390/educsci13040410
Naranjo, B, Izurieta, C., Tibán, L., Morrillo, C.
S., & Salazar, A. (2023). Ética y
responsabilidad en la implementación de la
inteligencia artificial en la
educación. Ciencia Latina Revista
Multidisciplinar, 7(6),
28. https://dialnet.unirioja.es/servlet/articulo
?codigo=9481573
Paguay, M. Jiménez D., Quiliguango V.,
Maynaguez, M., Coello, C., & Coello, S.
(2024). La ética en el uso de la inteligencia
artificial en los procesos educativos. Revista
Científica Retos de la Ciencia, 1(4), 145-
158. https://retosdelacienciaec.com/Revistas
/index.php/retos/article/view/530
Rodríguez, A., & Rodríguez, A. (2022). Ética
para la inteligencia artificial
sostenible. Arbor: Ciencia, Pensamiento y
Cultura,
198(806). https://arbor.revistas.csic.es/index
.php/arbor/article/view/2620
Tlili, A., Shehata, B., Adarkwah, M. A.,
Bozkurt, A., Hickey, D. T., Huang, R., &
Agyemang, B. (2023). What if the devil is
my guardian angel: ChatGPT as a case study
of using chatbots in education. Smart
Learning Environments, 10, 15.
https://doi.org/10.1186/s40561-023-00237-
x
Torres, C, González, A., & Hernando, J. (2023).
El impacto de la inteligencia artificial
generativa en educación superior: Una
mirada desde la ética y la integridad
académica. RELIEVE Revista Electrónica
de Investigación y Evaluación Educativa,
29(2). https://revistaseug.ugr.es/index.php/R
ELIEVE/article/view/29134
Vivar, J., & Peñalvo, F. (2023). Reflexiones
sobre la ética, potencialidades y retos de la
Inteligencia Artificial en el marco de la
Educación de Calidad (ODS4). Comunicar
Revista Científica de Comunicación y
Educación, (74), 37-
47. https://dialnet.unirioja.es/servlet/articulo
?codigo=8732441
Villalba, J. (2020). Algor-ética: La ética en la
inteligencia artificial. Anales de la Facultad
de Ciencias Jurídicas y Sociales de la
Universidad Nacional de La Plata, (50), 62-
82. https://revistas.unlp.edu.ar/RevistaAnale
sJursoc/article/view/9742
Zawacki, O., Marín, V., Bond, M., &
Gouverneur, F. (2019). Systematic review of
research on artificial intelligence
applications in higher education where are
the educators? International Journal of
Educational Technology in Higher
Education, 16, 39.
https://doi.org/10.1186/s41239-019-0171-0
Esta obra está bajo una licencia de
Creative Commons Reconocimiento-No Comercial
4.0 Internacional. Copyright © Edison Gabriel
Tacuri Tapia y Lorena Nathalie Tapia Guerrero.
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 2.2
Edición Especial II 2026
Página 676