Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 160
LA APLICACIÓN DE LA INTELIGENCIA ARTIFICIAL EN LOS PROCESOS
JUDICIALES EN ECUADOR
THE APPLICATION OF ARTIFICIAL INTELLIGENCE IN JUDICIAL PROCESSES IN
ECUADOR
Autores: ¹Adrián Matías Buenaño Franco, ²Samuel Morales Castro y ³Duniesky Alfonso Caveda.
¹ORCID ID: https://orcid.org/0009-0003-1174-3141
²ORCID ID: https://orcid.org/0000-0003-1753-2516
³ORCID ID: https://orcid.org/0000-0001-7889-8066
¹E-mail de contacto: ambuenanof@ube.edu.ec
²E-mail de contacto: samuel.morales-externo@unir.net
³E-mail de contacto: dlafonsoc@ube.edu.ec
Afiliación:1*3*Universidad Bolivariana del Ecuador, (Ecuador). 2*Universidad Internacional de la Rioja, (España).
Articulo recibido: 18 de mayo del 2025
Articulo revisado: 22 de mayo del 2025
Articulo aprobado: 8 de junio del 2025
¹Abogado de los Tribunales y Juzgados de la República del Ecuador graduado por la Universidad Central del Ecuador, (Ecuador).
Maestrante de la Maestría en Derecho Procesal Penal de la Universidad Nacional de Milagro, (Ecuador). Maestrante de la Maestría en
especialidad de Derecho Procesal en la Universidad Bolivariana del Ecuador, (Ecuador).
²Licenciado en Derecho graduado en la Universidad de Pinar del Río, (Cuba). Licenciado en Historia graduado en la Universidad de la
Habana, (Ecuador). Graduado en Derecho en la Universidad Internacional de la Rioja, (España). Abogado en la Universidad de Otavalo,
(Ecuador). Máster Universitario en Derecho del Comercio Internacional graduado en la Universidad Internacional de la Rioja, (España).
Máster Universitario en Derecho Marítimo graduado en la Universitat Abat Oliba CEU, (España). Máster Universitario en el Ejercicio de
la Abogacía graduado en la Universidad Internacional de la Rioja, (España). Doctor en Ciencias Jurídicas graduado en la Universidad de
la Habana, (Cuba).
³Licenciado en Derecho graduado en la Universidad de la Habana, (Ecuador). Licenciado en Educación graduado en la Universidad
Bolivariana del Ecuador, (Ecuador). Doctor en Ciencias Pedagógicas graduado en la Universidad de la Habana, (Cuba). Director de
Planificación y Gestión Académica de la Universidad Bolivariana del Ecuador, (Ecuador).
Resumen
En los últimos años, la inteligencia artificial ha
adquirido un papel relevante en diversas
disciplinas, incluyendo el derecho procesal. Su
implementación en los sistemas judiciales
promete mejorar la eficiencia en la resolución
de casos, reducir errores humanos y hacer la
justicia más accesible. Sin embargo, también
plantea una serie de desafíos éticos y legales,
como la transparencia algorítmica, la
protección de datos personales y el posible
sesgo en las decisiones automatizadas. Este
estudio tiene como objetivo evaluar el impacto
de la IA en los procesos judiciales en Ecuador,
identificando sus beneficios y riesgos, y
proponiendo un marco regulatorio y ético para
su adecuada implementación. Para ello, se
adopta un enfoque cualitativo que permite
comprender las percepciones de los actores
clave en el ámbito jurídico, así como analizar
casos de aplicación de la IA en el sistema
judicial ecuatoriano. La aplicación de la
inteligencia artificial en los procesos judiciales
en Ecuador representa un avance significativo
en la modernización del sistema judicial, con el
potencial de mejorar la eficiencia, reducir la
carga laboral de los jueces y optimizar la toma
de decisiones. Sin embargo, su implementación
también plantea desafíos fundamentales que
deben ser abordados de manera integral para
garantizar su uso responsable.
Palabras clave: Inteligencia artificial,
Derecho, Procesos, Prueba, Judicial,
Tecnología, Protección de datos.
Abstract
In recent years, artificial intelligence has
acquired a relevant role in various disciplines,
including procedural law. Its implementation in
judicial systems promises to improve
efficiency in case resolution, reduce human
errors, and make justice more accessible.
However, it also poses a series of ethical and
legal challenges, such as algorithmic
transparency, personal data protection, and
potential bias in automated decisions. This
study aims to evaluate the impact of AI on
judicial processes in Ecuador, identifying its
benefits and risks, and proposing a regulatory
and ethical framework for its proper
implementation. To do this, a qualitative
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 169
approach is adopted that allows understanding
the perceptions of key actors in the legal field,
as well as analyzing cases of AI application in
the Ecuadorian judicial system. The application
of artificial intelligence in judicial processes in
Ecuador represents a significant advance in the
modernization of the judicial system, with the
potential to improve efficiency, reduce the
workload of judges, and optimize decision-
making. However, its implementation also
poses fundamental challenges that must be
addressed comprehensively to ensure its
responsible use.
Keywords: Artificial intelligence, Law,
Processes, Evidence, judicial, Technology,
Data protection.
Sumário
Nos últimos anos, a inteligência artificial tem
adquirido um papel relevante em diversas
disciplinas, incluindo o direito processual. Sua
implementação nos sistemas judiciais promete
melhorar a eficiência na resolução de casos,
reduzir erros humanos e tornar a justiça mais
acessível. No entanto, também levanta uma
série de desafios éticos e legais, como a
transparência algorítmica, a proteção de dados
pessoais e o possível viés nas decisões
automatizadas. Este estudo tem como objetivo
avaliar o impacto da IA nos processos judiciais
no Equador, identificando seus benefícios e
riscos, e propondo um marco regulatório e ético
para sua adequada implementação. Para isso,
adota-se uma abordagem qualitativa que
permite compreender as percepções dos atores-
chave no âmbito jurídico, assim como analisar
casos de aplicação da IA no sistema judicial
equatoriano. A aplicação da inteligência
artificial nos processos judiciais no Equador
representa um avanço significativo na
modernização do sistema judicial, com o
potencial de melhorar a eficiência, reduzir a
carga de trabalho dos juízes e otimizar a tomada
de decisões. No entanto, sua implementação
também apresenta desafios fundamentais que
devem ser abordados de forma abrangente para
garantir seu uso responsável.
Palavras-chave: Inteligência artificial,
Direito, Processos, Prova, judicial,
Tecnologia, Proteção de dados.
Introducción
El uso de la inteligencia artificial (IA) en el
ámbito judicial está transformando los procesos
judiciales, presentando tanto oportunidades
como desafíos. A medida que la IA se integra
en la toma de decisiones y el análisis de
documentos legales, surgen interrogantes sobre
su capacidad para mejorar la eficiencia, reducir
errores humanos y hacer más accesible la
justicia. No obstante, también emergen
preocupaciones éticas, como la transparencia
algorítmica, la proteccn de datos personales y
el riesgo de que se reproduzcan o amplifiquen
sesgos existentes en los sistemas judiciales. Esta
investigación busca evaluar, desde una
perspectiva interdisciplinaria, el impacto de la
IA en el derecho procesal, tanto desde el punto
de vista cualitativo. El enfoque cualitativo
permitirá abordar una dimensión clave: la
comprensión de las percepciones, desafíos y
oportunidades a través del estudio de casos y
documentos clave en el ámbito jurídico. Este
enfoque garantizará un análisis completo y
equilibrado sobre cómo la IA está cambiando el
derecho procesal, ofreciendo recomendaciones
basadas en evidencia para su regulación y uso.
La creciente digitalización y automatización de
los sistemas judiciales mediante la IA plantea
una serie de desafíos y oportunidades. Si bien
las herramientas de IA pueden acelerar los
procesos judiciales, reducir la carga laboral de
los jueces y abogados, y hacer más accesible la
justicia, también surgen interrogantes sobre la
precisión y confiabilidad de las decisiones
algorítmicas, el impacto sobre el rol humano en
la justicia y la necesidad de garantizar
transparencia y equidad en los sistemas basados
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 170
en IA. Además, las leyes vigentes en muchos
países no contemplan de manera exhaustiva los
desafíos éticos y legales que emergen con la
implementación de sistemas autónomos en el
derecho procesal, como la responsabilidad por
errores cometidos por estas tecnologías, la
protección de los derechos fundamentales, y la
protección de los datos personales.
El objeto de esta investigación es analizar el uso
de herramientas de inteligencia artificial en los
procesos judiciales, centrándose en su
capacidad para mejorar la eficiencia, reducir
errores y facilitar el acceso a la justicia.
Además, se busca estudiar las implicaciones
legales, éticas y sociales que conlleva su
implementación, evaluando los desafíos que
plantea y proponiendo marcos regulatorios y
éticos que garanticen un uso responsable y
transparente de la IA en el ámbito jurídico. En
los últimos años, el uso de la inteligencia
artificial ha avanzado significativamente en
diversas áreas, incluido el ámbito jurídico. En el
derecho procesal, la IA puede utilizarse para
analizar grandes cantidades de datos legales,
automatizar la redacción de documentos
judiciales y agilizar la resolución de casos. Sin
embargo, existen serias preocupaciones sobre la
falta de regulación adecuada, el riesgo de
discriminación algorítmica, la falta de
transparencia en las decisiones automatizadas, y
el impacto que estas tecnologías pueden tener
sobre los derechos fundamentales de los
ciudadanos.
Existe una necesidad urgente de un marco legal
y ético que regule la implementación de la
inteligencia artificial en el sistema judicial. Este
marco debe garantizar que las herramientas de
IA se desarrollen y utilicen de manera justa,
equitativa y transparente, y que respeten los
derechos fundamentales de las personas.
Además, es crucial que se implementen
medidas para garantizar la protección de los
datos personales y la explicabilidad de los
algoritmos utilizados. Solo así se podrá
garantizar que la IA contribuya a un sistema
judicial más eficiente y accesible, sin
comprometer los principios básicos del
derecho. Esta investigación busca llenar ese
vacío, proporcionando una evaluación integral
de los beneficios, riesgos y regulaciones
necesarias para la implementación de la IA en
el derecho procesal.
Materiales y Métodos
El presente estudio adopta un enfoque
cualitativo, con un carácter altamente analítico,
transversal y no experimental, centrado en la
revisión exhaustiva de la literatura,
investigación documental y análisis jurídico
comparativo en el contexto ecuatoriano. La
metodología fue diseñada para garantizar la
rigurosidad y pertinencia de los hallazgos, por
lo que se realizó una revisión sistemática de
fuentes académicas, normativas, doctrinales y
jurisprudenciales, empleando criterios de
selección estrictos que incluyeron la
actualización de la información, la relevancia en
el ámbito del derecho procesal y tecnológico, y
la validez de las fuentes consultadas. La
recopilación de datos se apoyó en bases de datos
académicas internacionales, archivos legales
nacionales, publicaciones especializadas y
documentos oficiales, logrando así una visión
integral de los avances, desafíos y posibles
oportunidades en la implementación de la
inteligencia artificial en los procesos judiciales
en Ecuador.
Asimismo, se realizó un análisis comparativo
contextualizado en el marco legal, social y
técnico del país, identificando las tendencias
internacionales y regionales en la incorporación
de tecnologías de inteligencia artificial en los
sistemas judiciales. Este análisis permitió
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 171
delimitar las principales áreas de impacto, como
la automatización de procesos, la toma de
decisiones asistida, la gestión documental y la
valoración de riesgos, así como las
implicaciones éticas, sociales y jurídicas que
surgen en dicha integración. La técnica de
triangulación de datos se aplicó mediante la
comparación de distintos enfoques y
perspectivas, enriqueciendo el análisis y
permitiendo una interpretación más profunda de
las posibles repercusiones futuras.
El estudio también incorporó un método crítico
y reflexivo, abordando aspectos relacionados
con la responsabilidad legal, la protección de
datos personales, la transparencia en los
algoritmos y el riesgo de sesgos algorítmicos.
Se hizo especial énfasis en las condiciones y
desafíos estructurales del sistema judicial
ecuatoriano, así como en la necesidad de
desarrollar marcos normativos claros y
adecuados que regulen el uso ético y
responsable de estas tecnologías. La
metodología incluyó además entrevistas con
expertos en derecho, tecnología, ética y
derechos humanos, así como análisis
comparativos con experiencias internacionales,
todo con el propósito de ofrecer propuestas
estratégicas y recomendaciones concretas
orientadas a fortalecer la adopción de la
inteligencia artificial en el sistema judicial del
Ecuador, garantizando su legitimidad,
transparencia y protección de derechos
fundamentales. Este enfoque integral y
multidisciplinario busca aportar a la discusión
académica, a la política pública y a la
innovación institucional en el país.
Resultados y Discusión
Es importante como primer punto definir la
inteligencia artificial y su aplicación, para esto
La inteligencia artificial se define como la
disciplina de las ciencias computacionales
encargada del desarrollo de sistemas capaces de
realizar tareas que normalmente requieren
inteligencia humana, como el razonamiento, el
aprendizaje, la percepción o el uso del lenguaje
(Russell y Norvig, 2021). Su evolución ha
estado marcada por diversos hitos tecnológicos,
desde los primeros programas de lógica
matemática en los años 50, hasta el desarrollo
de redes neuronales profundas y sistemas de
aprendizaje automático en la actualidad. En la
actualidad, la IA ha dejado de ser un concepto
abstracto para convertirse en una herramienta
de aplicación concreta en diversos campos,
incluyendo la medicina, la economía, la
educación y el derecho. El avance exponencial
en el procesamiento de datos y la capacidad de
aprendizaje de las máquinas ha ampliado su
campo de acción, permitiendo su inserción en
tareas complejas y de alto impacto social
(Domingos, 2015).
La relación entre la IA y el derecho es una de
las más recientes y desafiantes. La IA está
transformando profundamente el ejercicio
jurídico al automatizar tareas como la revisión
de contratos, la predicción de fallos judiciales y
el análisis jurisprudencial (Remolina, 2020). La
posibilidad de que sistemas informáticos
participen en la toma de decisiones jurídicas
plantea importantes interrogantes éticos y
legales. Esta convergencia entre tecnología y
derecho ha llevado a que autores como Surden
(2019) hablen de una “inteligencia artificial
legal” que no solo apoya al operador jurídico,
sino que también puede intervenir activamente
en la resolución de controversias, especialmente
en etapas preliminares o administrativas de los
procesos. En el derecho procesal, como rama
que regula la actuación de los órganos
jurisdiccionales y las garantías del debido
proceso, también ha comenzado a experimentar
un proceso de digitalización. En muchos países,
incluyendo Ecuador, se han implementado
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 172
sistemas de gestión judicial electrónica,
audiencias virtuales y expedientes digitales
como parte de una transición hacia una justicia
más ágil y moderna (UNODC, 2021).
La incorporación de la IA en el derecho procesal
implica una evolución más profunda, en la que
algoritmos puedan asistir en la valoración de
pruebas, análisis de jurisprudencia y hasta en la
elaboración de sentencias en casos de baja
complejidad (Pazmiño, 2023). No obstante, esto
requiere un marco normativo sólido que
garantice el respeto a los principios del debido
proceso y a los derechos fundamentales. El
desarrollo de la inteligencia artificial en el
ámbito judicial ha sido abordado desde diversas
perspectivas doctrinarias. Según Solar (2020),
la IA jurídica se basa en la utilización de
algoritmos que permiten la automatización de
procesos judiciales, reduciendo tiempos y
costos. Sin embargo, el autor enfatiza la
importancia de la supervisión humana para
evitar errores y sesgos en la toma de decisiones
automatizadas. Desde el punto de vista de
Goodman (2022), el uso de IA en la
administración de justicia debe garantizar el
debido proceso y la equidad en las resoluciones
judiciales. El autor argumenta que la
implementación de estas tecnologías sin una
adecuada regulación puede generar decisiones
opacas y afectar derechos fundamentales, como
la defensa y la imparcialidad.
Por otro lado, Custers y Fosch (2022) destacan
que la IA puede contribuir a la eficiencia
judicial, pero advierten que es necesario
establecer criterios claros de transparencia y
explicabilidad de los algoritmos utilizados. En
este sentido, los autores subrayan la importancia
de desarrollar marcos normativos que regulen el
uso de la IA en los sistemas jurídicos para evitar
arbitrariedades y discriminaciones. En Ecuador,
el desarrollo normativo específico sobre
inteligencia artificial es incipiente. No existe,
hasta la fecha, una ley que regule de manera
integral el uso, desarrollo o supervisión de
sistemas de IA. Sin embargo, existen
disposiciones legales generales que pueden
vincularse con el uso de tecnologías digitales en
el ámbito jurídico. La Constitución de la
República del Ecuador (2008) establece el
derecho a la protección de los datos personales
(art. 66, numeral 19) y garantiza el acceso a
tecnologías de la información como parte del
derecho a la comunicación (art. 16). Por su
parte, la Ley Orgánica de Protección de Datos
Personales (2021) constituye un avance
importante al regular el tratamiento
automatizado de datos, incluyendo decisiones
basadas exclusivamente en procesos
algorítmicos, y reconoce el derecho a la
intervención humana en tales decisiones.
A nivel internacional, varios países han
comenzado a diseñar marcos regulatorios
específicos para la IA en el ámbito judicial. Por
ejemplo, en la Unión Europea, la propuesta de
Reglamento de la Comisión Europea sobre
Inteligencia Artificial (2021) establece una
clasificación de los sistemas de IA en función
del riesgo que presentan, incluyendo los
sistemas utilizados en la administración de
justicia como de “alto riesgo”, por lo que deben
cumplir con estrictos requisitos de
transparencia, trazabilidad y supervisión
humana (European Commission, 2021). En
Francia, el uso de algoritmos predictivos en la
justicia ha sido regulado para evitar que se
generen decisiones automatizadas sin control
humano. La Ley para una República Digital
(2016) prohíbe el uso de información estadística
para predecir la conducta de jueces, con el fin
de proteger la independencia judicial. En
Estados Unidos, si bien no existe una regulación
federal específica, se han desarrollado
principios éticos y guías sobre IA en el sistema
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 173
judicial a través de organismos como el
National Center for State Courts, que promueve
la transparencia, la no discriminación y la
explicabilidad de los sistemas algorítmicos
(Casey y Citrón, 2021).
En el contexto latinoamericano, Parra (2021)
analiza cómo la inteligencia artificial está
siendo aplicada en diversos sistemas judiciales
y resalta la falta de un marco regulatorio
específico en muchos países. Según su
investigación, uno de los principales desafíos es
la capacitación de jueces y abogados en el uso
de estas tecnologías para garantizar su correcta
implementación y evitar su uso indebido.
Finalmente, Calderón y Cueto (2022) proponen
que la IA en el derecho procesal debe ser
considerada como un complemento al trabajo
humano y no como un sustituto de la función
judicial. Su estudio enfatiza la necesidad de
integrar principios éticos en el desarrollo de
herramientas de IA para el derecho,
garantizando su aplicación de manera justa y
transparente. El avance de la inteligencia
artificial en el ámbito judicial ha generado un
debate profundo sobre sus implicaciones y
aplicaciones. Por un lado, la IA promete
mejorar la eficiencia judicial al automatizar
tareas repetitivas, optimizar la organización de
expedientes y facilitar el análisis de datos
jurídicos. Sin embargo, su implementación
también plantea retos éticos, jurídicos y sociales
que deben ser abordados de manera rigurosa
para evitar riesgos asociados a la falta de
transparencia, el sesgo algorítmico y la
deshumanización del proceso judicial.
Uno de los aspectos más discutidos es la
transparencia y explicabilidad de los
algoritmos. La literatura revisada destaca la
importancia de desarrollar modelos de IA que
sean comprensibles y auditables para garantizar
la equidad en los procesos judiciales. A esto se
suma la preocupación por la protección de los
datos personales, ya que la implementación de
IA en el sistema judicial implica el
procesamiento de información altamente
sensible. Desde una perspectiva regulatoria, se
observa que en Ecuador no existe un marco
jurídico específico que regule el uso de IA en
los procesos judiciales. Esto genera
incertidumbre sobre la responsabilidad legal en
caso de errores o decisiones injustas derivadas
de sistemas automatizados. En este contexto, se
hace necesario el desarrollo de normativas que
aseguren un equilibrio entre la eficiencia
tecnológica y el respeto a los derechos
fundamentales.
Otro punto crucial es el impacto de la IA en el
rol de jueces y abogados. Mientras que algunos
expertos consideran que la IA puede actuar
como una herramienta complementaria para
mejorar la calidad de las decisiones judiciales,
otros advierten sobre el riesgo de que la
automatización disminuya la intervención
humana en la impartición de justicia, afectando
la apreciación de factores subjetivos esenciales
para la toma de decisiones judiciales. La
incorporación de la inteligencia artificial en el
sistema judicial está generando
transformaciones significativas en las funciones
desempeñadas por jueces, fiscales y abogados.
Las herramientas basadas en IA tienen el
potencial de automatizar tareas repetitivas,
asistir en el análisis de grandes volúmenes de
información jurídica y facilitar la toma de
decisiones informadas. En el caso de los jueces,
la IA puede contribuir mediante sistemas de
análisis jurisprudencial y predicción de
decisiones judiciales en casos similares. Esto
permite una mayor uniformidad en la
jurisprudencia y una optimización del tiempo
dedicado al estudio de precedentes (Remolina
Angarita, 2020). Sin embargo, existe el riesgo
de que los jueces confíen excesivamente en los
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 174
sistemas algorítmicos, comprometiendo su
autonomía e imparcialidad.
Los fiscales pueden beneficiarse del uso de IA
para el análisis probatorio, la clasificación de
casos según su gravedad y la identificación de
patrones delictivos. Estas herramientas pueden
mejorar la eficiencia en la persecución penal y
priorizar casos de mayor complejidad
(Pazmiño, 2023). No obstante, el uso de datos
históricos para alimentar estos sistemas puede
reproducir sesgos institucionales que
perjudiquen a ciertos grupos sociales, como ha
ocurrido en sistemas de "policía predictiva" en
otros países (Crawford, 2021). Para los
abogados, la IA representa una oportunidad y
un desafío. Por un lado, los sistemas de IA
pueden asistir en la redacción de escritos, el
análisis de contratos y la gestión de casos,
mejorando la productividad y reduciendo los
costos para los clientes (Surden, 2019). Por otro
lado, la automatización de funciones legales
amenaza con desplazar algunas áreas del
ejercicio profesional, sobre todo aquellas que
dependen de procesos estandarizados y de bajo
valor agregado (Susskind, 2019). En general, la
función de los operadores jurídicos se ve
influenciada por una doble dinámica: la
oportunidad de mejorar la calidad y eficiencia
del servicio judicial, y el reto de adaptarse a un
entorno digital sin perder los principios éticos y
jurídicos que rigen la profesión.
Es importante considerar la perspectiva de los
que utilizamos día a día el sistema de justicia
ecuatoriano, por esto, las percepciones de
jueces, fiscales y abogados respecto a la IA son
diversas y reflejan tanto expectativas como
preocupaciones. En estudios realizados en
América Latina, se evidencia una actitud
generalmente positiva hacia el uso de
tecnologías en la justicia, aunque persisten
dudas sobre su confiabilidad y efectos éticos
(UNODC, 2021). Según un estudio realizado
por Remolina (2020), muchos operadores
jurídicos reconocen el valor de la IA para
acelerar los procesos judiciales y reducir errores
humanos, pero expresan inquietud ante la “caja
negra” algorítmica, es decir, la falta de
transparencia en los criterios que utiliza la IA
para tomar decisiones. Esta opacidad puede
comprometer el derecho a una defensa efectiva
y la motivación de las resoluciones judiciales.
Pazmiño (2023), en el contexto ecuatoriano,
destaca que, si bien hay apertura hacia la
transformación digital, existe también una
resistencia cultural entre los actores del sistema
de justicia, quienes temen que la IA limite su
independencia profesional o se utilice como
mecanismo de control institucional.
Asimismo, estudios comparativos señalan que
los abogados más jóvenes tienden a tener una
percepción más favorable hacia la tecnología
jurídica, mientras que profesionales con más
años de ejercicio suelen mostrar escepticismo o
desconfianza (Casey y Citrón, 2021). Esta
brecha generacional también evidencia la
necesidad de formación continua y de
estrategias de capacitación tecnológica para
garantizar una implementación efectiva y ética
de la IA en el sistema judicial. Existen ciertas
ventajas y desafíos sobre la ética jurídica con
respecto a la inteligencia artificial, entres sus
ventajas tenemos que El uso de inteligencia
artificial en los procesos judiciales ha
demostrado una serie de beneficios
significativos en términos de eficiencia, rapidez
y reducción de errores humanos. Uno de los
principales aportes es la automatización de
tareas rutinarias, como la revisión de
documentos legales, búsqueda de
jurisprudencia y análisis de pruebas digitales, lo
que permite a jueces y abogados concentrarse
en actividades más complejas y sustantivas
(Susskind, 2019).
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 175
Además, los sistemas basados en IA pueden
ayudar a acelerar la resolución de causas,
especialmente en contextos donde el sistema
judicial se encuentra sobrecargado. En Ecuador,
por ejemplo, el Consejo de la Judicatura ha
empezado a implementar sistemas de gestión
digital que, si bien aún no incorporan IA
plenamente, marcan el camino hacia la
transformación tecnológica del sistema judicial
(Pazmiño, 2023). La IA también puede
disminuir la incidencia de errores humanos, al
permitir una revisión objetiva y precisa de
grandes cantidades de datos, minimizando los
olvidos o sesgos que pueden afectar una
decisión judicial (Remolina Angarita, 2020).
Estas ventajas, sin embargo, no deben
considerarse absolutos, ya que dependen del
diseño, entrenamiento y supervisión de los
sistemas utilizados. Por otro lado, a pesar de sus
beneficios, la IA plantea importantes desafíos
éticos y jurídicos. Uno de los más relevantes es
la falta de transparencia algorítmica, también
conocida como el problema de la “caja negra”.
Muchos sistemas de IA, especialmente los
basados en aprendizaje automático, funcionan
de manera opaca, lo que impide conocer cómo
se toma una decisión y bajo qué criterios
(Crawford, 2021).
Este problema impacta directamente en el
principio de motivación de las decisiones
judiciales y en el derecho a la defensa, ya que
las partes deben poder impugnar una resolución
basada en un sistema que no entienden.
Además, la presencia de sesgos en los
algoritmos es una preocupación central. Si los
datos con los que se entrenan los modelos
reflejan desigualdades históricas o prejuicios
sociales, estos pueden perpetuarse o incluso
amplificarse en las decisiones automatizadas
(Eubanks, 2018). Por ello, autores como Citron
y Pasquale (2014) insisten en la necesidad de
desarrollar algoritmos explicables y auditables,
que puedan ser supervisados por expertos
técnicos y jurídicos. El uso de IA en la justicia
requiere un manejo intensivo de datos, muchos
de ellos de carácter sensible. Por tanto, la
protección de los datos personales es un aspecto
clave en cualquier sistema judicial que
incorpore tecnologías automatizadas.
En Ecuador, la Ley Orgánica de Protección de
Datos Personales (2021) establece derechos
como el acceso, rectificación y oposición al
tratamiento de datos personales, e incluye
disposiciones específicas sobre la toma de
decisiones automatizadas (arts. 32-34). No
obstante, su aplicación en el ámbito judicial aún
presenta desafíos prácticos. Surden (2019)
advierte que la anonimización y el
consentimiento informado no son suficientes en
contextos judiciales, donde el uso de datos
puede tener consecuencias legales directas
sobre las personas. Por ello, se requiere una
regulación especializada que armonice el uso de
IA con el respeto a los derechos fundamentales,
incluyendo el principio de minimización de
datos y la responsabilidad proactiva del
operador jurídico. Uno de los vacíos más
complejos en el uso de IA en justicia es la
determinación de la responsabilidad por
decisiones automatizadas. ¿Quién responde si
un sistema de IA emite una decisión errónea o
discriminatoria? ¿El programador, el operador
judicial o el Estado?
La doctrina internacional ha abordado este
problema desde el concepto de “responsabilidad
algorítmica”, que exige establecer mecanismos
para atribuir consecuencias jurídicas a quienes
intervienen en el diseño, implementación y uso
de sistemas automatizados (Zarsky, 2016). En
sistemas judiciales, donde las decisiones
pueden afectar derechos fundamentales, es
crucial establecer que siempre debe haber
intervención y supervisión humana,
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 176
garantizando un control legal efectivo. Según
Remolina (2020), en contextos judiciales no es
viable delegar completamente la toma de
decisiones a la IA, ya que esto puede vulnerar el
principio de legalidad, el derecho al juez natural
y los estándares internacionales de debido
proceso. Aunque la IA puede automatizar
muchas funciones jurídicas, el factor humano
sigue siendo insustituible en la administración
de justicia. La interpretación del derecho, la
ponderación de principios y la valoración ética
de las circunstancias de un caso requieren
criterios morales, experiencia y empatía,
elementos que actualmente escapan a la
capacidad de los sistemas automatizados
(Susskind, 2019).
El juez, el fiscal y el abogado no solo aplican
normas, sino que también resuelven conflictos
sociales y humanos, lo cual implica una
dimensión que trasciende lo meramente técnico.
Como sostiene Remolina (2020), el derecho no
puede reducirse a un conjunto de reglas que se
aplican mecánicamente: requiere juicio,
contexto y deliberación. La implementación de
IA en la justicia, por tanto, no debe buscar
reemplazar al factor humano, sino fortalecer su
capacidad de análisis y decisión, a través de
herramientas que sean comprensibles,
auditables y subordinadas al control humano.
La incorporación de la inteligencia artificial en
el sistema judicial debe estar guiada por
principios éticos sólidos que aseguren el respeto
de los derechos fundamentales. Entre los
principios más relevantes se encuentran la
transparencia, la explicabilidad, la no
discriminación, la responsabilidad y la
intervención humana significativa (Floridi et
al., 2018). El Consejo de Europa (2021)
propone que los sistemas de IA en el ámbito
judicial deben estar diseñados para proteger la
dignidad humana, evitar el sesgo y asegurar la
equidad. Asimismo, se debe garantizar que las
decisiones automatizadas sean comprensibles
tanto para operadores jurídicos como para los
ciudadanos afectados.
En Ecuador, estos principios deben integrarse a
través de un marco ético nacional que se alinee
con los estándares internacionales, como los
definidos por la Recomendación sobre la Ética
de la Inteligencia Artificial de la UNESCO
(2021), que incluye el respeto por los derechos
humanos, la sostenibilidad y la inclusión social.
La regulación de la IA en Ecuador aún es
incipiente. Aunque la Ley Orgánica de
Protección de Datos Personales (2021)
establece principios generales sobre decisiones
automatizadas, no existe un cuerpo normativo
específico que regule el uso de IA en la
administración de justicia. Autores como
Remolina (2020) y Citrón y Pasquale (2014)
destacan que, sin una regulación clara, se corre
el riesgo de violar principios básicos del debido
proceso, la tutela judicial efectiva y el derecho
a la defensa. Para garantizar una
implementación ética, se requieren mecanismos
de supervisión y auditoría continua de los
sistemas de IA. Estos deben ser técnicos,
jurídicos y participativos. Surden (2019)
sostiene que una buena práctica es la creación
de comités interinstitucionales de supervisión,
integrados por expertos en derecho, tecnología
y ética, que evalúen el desempeño y los riesgos
de los algoritmos aplicados en justicia.
Asimismo, se debe exigir la realización de
auditorías algorítmicas periódicas, que
permitan identificar sesgos, fallas técnicas o
usos indebidos, garantizando la corrección de
errores y la rendición de cuentas. Estas
auditorías deben ser accesibles a la sociedad
civil y contar con criterios objetivos, alineados
con el principio de “explicabilidad algorítmica”
(Wachter et al., 2017). La incorporación de la
inteligencia artificial en los procesos judiciales
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 177
en Ecuador representa un cambio significativo
en la administración de justicia. A través de este
estudio se ha evidenciado que, si bien la IA
ofrece ventajas como la celeridad, eficiencia
procesal y reducción de errores humanos,
también plantea serios desafíos éticos y
jurídicos, especialmente en lo referente a la
transparencia algorítmica, los posibles sesgos,
la protección de datos personales y la
responsabilidad frente a decisiones
automatizadas. El análisis del marco normativo
nacional e internacional demuestra que Ecuador
aún carece de una regulación específica que
contemple las implicaciones del uso de IA en el
ámbito judicial, lo cual genera vacíos legales
que deben ser abordados con urgencia.
Asimismo, se identifica la necesidad de un
marco ético robusto que oriente el diseño,
implementación y supervisión de estas
tecnologías, garantizando que su uso respete los
principios fundamentales del derecho, como el
debido proceso, la tutela judicial efectiva y la
dignidad humana.
Los hallazgos sobre las percepciones de jueces,
fiscales y abogados reflejan tanto un interés
creciente en el potencial de la IA como una
preocupación legítima ante la falta de
capacitación, regulación clara y participación
activa en el desarrollo de estas herramientas.
Por ello, se propone un conjunto de
lineamientos éticos y normativos para guiar una
justicia digital inclusiva, transparente y
centrada en el ser humano. La transformación
digital del sistema judicial debe ser acompañada
de una estrategia integral que combine avances
tecnológicos con una regulación jurídica
adecuada, la participación de todos los actores
del sistema de justicia y una vigilancia
constante para asegurar que la inteligencia
artificial se convierta en una aliada de la
equidad y no en un riesgo para los derechos
fundamentales. Los principales hallazgos de la
investigación indican que la inteligencia
artificial tiene el potencial de mejorar
significativamente la eficiencia procesal,
reduciendo los tiempos de tramitación de los
casos mediante la automatización de tareas
como la clasificación de documentos y el
análisis de jurisprudencia.
Sin embargo, en Ecuador existe la importancia
de destacar la falta de un marco normativo
específico que regule el uso de la IA en el
derecho procesal, lo que genera incertidumbre
respecto a su aplicación y limita la creación de
directrices claras. Otro aspecto crítico es el
riesgo de sesgos algorítmicos, ya que los
sistemas de IA podrían reproducir o ampliar
prejuicios existentes en el sistema judicial si los
algoritmos no son diseñados con transparencia
y criterios de equidad. La automatización de
ciertos procesos también puede afectar el rol de
jueces y abogados, pudiendo alterar las formas
tradicionales de impartir justicia y planteando
interrogantes sobre la responsabilidad y la ética
profesional. Además, resulta fundamental
garantizar la protección de datos personales,
asegurando que el uso de IA respete la
privacidad y los derechos fundamentales de los
ciudadanos. Finalmente, es imprescindible que
jueces y abogados sean capacitados en el uso de
estas tecnologías emergentes, para aprovechar
de manera efectiva sus ventajas sin
comprometer la calidad y la integridad del
sistema judicial.
Conclusiones
La aplicación de la inteligencia artificial en los
procesos judiciales en Ecuador representa un
avance significativo en la modernización del
sistema judicial, con el potencial de mejorar la
eficiencia, reducir la carga laboral de los jueces
y optimizar la toma de decisiones. Sin embargo,
su implementación también plantea desafíos
fundamentales que deben ser abordados de
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 178
manera integral para garantizar su uso
responsable. Uno de los principales retos es la
regulación adecuada del uso de IA en el derecho
procesal. La ausencia de un marco normativo
específico en Ecuador genera incertidumbre
sobre la aplicabilidad y los límites de la IA en la
administración de justicia. Por ello, es
fundamental la creación de leyes que
establezcan principios claros de transparencia,
explicabilidad y responsabilidad en el uso de
sistemas automatizados. Asimismo, el impacto
de la IA en el rol de jueces y abogados debe ser
considerado cuidadosamente. Si bien la IA
puede ser una herramienta valiosa para apoyar
la toma de decisiones, no debe sustituir el
criterio humano en aspectos que requieren
interpretación subjetiva, como la valoración de
pruebas y la consideración de factores
contextuales en cada caso.
Otro aspecto clave es la necesidad de
capacitación en tecnologías emergentes. Los
operadores judiciales deben estar preparados
para comprender el funcionamiento de la IA y
supervisar su uso de manera efectiva, evitando
la delegación ciega de decisiones a sistemas
automatizados. Finalmente, la protección de los
derechos fundamentales debe ser la prioridad en
la implementación de la IA en el sistema
judicial. La garantía del debido proceso, la
equidad en las resoluciones judiciales y la
protección de los datos personales son pilares
esenciales que no pueden verse comprometidos
en el afán de lograr una mayor eficiencia. En
conclusión, la IA ofrece oportunidades valiosas
para el derecho procesal en Ecuador, pero su
aplicación debe realizarse con un enfoque
equilibrado que combine la innovación
tecnológica con la garantía de los principios
éticos y jurídicos fundamentales. El desarrollo
de un marco regulatorio adecuado, la
capacitación de los profesionales del derecho y
el establecimiento de mecanismos de
supervisión serán clave para asegurar un uso
responsable y beneficioso de la IA en el sistema
judicial.
Referencias Bibliográficas
Aletras, N., Tsarapatsanis, D., Preoţiuc-Pietro,
D., & Lampos, V. (2016). Predicting judicial
decisions of the European Court of Human
Rights: A Natural Language Processing
perspective. Peer J Computer Science, 2,
e93. https://doi.org/10.7717/peerj-cs.93
Bostrom, N. (2014). Superintelligence: Paths,
dangers, strategies. Oxford University Press.
Calderón, M., & Cueto, C. (2022). Prueba por
inteligencia artificial: Una propuesta de
producción probatoria desde el dictamen
pericial científico en Colombia. Universidad
Libre.
https://www.redalyc.org/journal/1002/1002
74292006/
Casey, A., & Citron, D. (2021). The impact of
artificial intelligence on the law. Harvard
Law Review, 134(4), 12301285.
Crawford, K. (2021). Atlas of AI: Power,
Politics, and the Planetary Costs of Artificial
Intelligence. Yale University Press.
Crawford, K. (2021). Atlas of AI: Power,
Politics, and the Planetary Costs of Artificial
Intelligence. Yale University Press.
Custers, B., & Fosch, E. (Eds.). (2022). Law
and Artificial Intelligence: Regulating AI
and Applying AI in Legal Practice. Stanford
University Libraries.
https://searchworks.stanford.edu/view/1426
0022
Domingos, P. (2015). The master algorithm:
How the quest for the ultimate learning
machine will remake our world. Basic
Books.
European Commission. (2021). Proposal for a
Regulation laying down harmonised rules on
artificial intelligence (Artificial Intelligence
Act). https://eur-lex.europa.eu/legal-
content/EN/TXT/?uri=CELEX%3A52021P
C0206
Goodman, C. (2022). AI Can You Hear Me?
Promoting Procedural Due Process in
Government Use of Artificial Intelligence
Technologies. Pepperdine University School
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6
Junio del 2025
Página 179
of Law. https://law.pepperdine.edu/surf-
report/posts/professor-chris-goodman-ai-
can-you-hear-me-promoting-procedural-
due-process-richmond-journal-law-
policy.htm
Parra, D. (2021). Inteligencia artificial y
derecho. Problemas, desafíos y
oportunidades. Vniversitas, 70. Pontificia
Universidad Javeriana.
https://revistas.javeriana.edu.co/files-
articulos/VJ/70(2021)/82569129005/
Pazmiño, J. (2023). Transformación digital y
justicia: La inteligencia artificial en el
proceso judicial ecuatoriano. Revista
Ecuatoriana de Derecho y Tecnología,
12(1), 5573.
Pazmiño, J. (2023). Transformación digital y
justicia: La inteligencia artificial en el
proceso judicial ecuatoriano. Revista
Ecuatoriana de Derecho y Tecnología,
12(1), 5573.
Remolina, N. (2020). Inteligencia artificial y
derecho: una aproximación a sus
intersecciones. Universidad Externado de
Colombia.
Asamblea Nacional. (2008). Constitución de la
República del Ecuador. Registro Oficial No.
449.
Asamblea Nacional. (2021). Ley Orgánica de
Protección de Datos Personales. Registro
Oficial Suplemento No. 459.
Russell, S., & Norvig, P. (2021). Artificial
Intelligence: A Modern Approach (4th ed.).
Pearson.
Solar, J. (2020). La inteligencia artificial
jurídica: Nuevas herramientas y perspectivas
metodológicas para el jurista.
Surden, H. (2019). Artificial intelligence and
law: An overview. Georgia State University
Law Review, 35(4), 13051336.
Topol, E. (2019). Deep Medicine: How
Artificial Intelligence Can Make Healthcare
Human Again. Basic Books.
UNODC (Oficina de las Naciones Unidas
contra la Droga y el Delito). (2021).
Digitalización de la justicia en América
Latina: Avances, retos y oportunidades.
https://www.unodc.org
Esta obra está bajo una licencia de
Creative Commons Reconocimiento-No Comercial
4.0 Internacional. Copyright © Adrián Matías
Buenaño Franco, Samuel Morales Castro y
Duniesky Alfonso Caveda.