Página 987
Additionally, the prototype incorporates
references to the analyzed document and
clearly indicates when there is insufficient
evidence to answer. The methodology used was
Scrum, and we conducted end-to-end tests on
single-file and batch loading. We also applied
a perception survey to four participants to
assess ease of use, clarity, usefulness, and user
experience. Regarding performance results, the
current version of the prototype increases
document ingestion and indexing time
compared to the initial version. This is because
the second version generates more embeddings
but improves evidence retrieval and response
quality. It is concluded that an intelligent
document assistant optimizes the query process
by reducing search times and eliminating
dependence on external services.
Keywords: Intelligent Assistant,
Embeddings, FAISS, Ollama, RAG.
Sumário
O objetivo do trabalho foi desenvolver e
verificar localmente um assistente inteligente
para consultar documentos acadêmicos de um
repositório da Universidade Católica de
Cuenca. Neste contexto, o problema consiste
em que os arquivos extensos dificultam a
localização rápida e precisa de informação
quando se depende unicamente da busca
tradicional por palavras-chave. Para isso,
implementamos um protótipo que converte o
conteúdo em representações vetoriais, busca
semântica com a biblioteca Facebook AI
Similarity Search (FAISS) e respostas em
execução local com Ollama. O protótipo possui
uma arquitetura cliente-servidor, integra o
carregamento de documentos, segmentação por
fragmentos, recuperação semântica e
persistência do histórico mediante geração
aumentada com recuperação (Retrieval
Augmented Generation, RAG). Além disso, o
protótipo incorpora a referência do documento
analisado e indica com clareza quando não
existe evidência suficiente para responder. A
metodologia utilizada foi Scrum e realizamos
testes de ponta a ponta em carga individual e
por pasta. Também aplicamos uma enquete de
percepção a quatro participantes para avaliar
facilidade, clareza, utilidade e experiência do
usuário. Quanto aos resultados de desempenho,
obteve-se que a versão atual do protótipo
aumenta o tempo de ingestão e indexação de
documentos frente à versão inicial. Isso se deve
ao fato de que a segunda versão gera mais
embeddings, mas melhora a recuperação de
evidências e a qualidade de resposta. Conclui-
se que um assistente documental inteligente
otimiza o processo de consulta ao reduzir os
tempos de busca e eliminar a dependência de
serviços externos.
Palavras-chave: Assistente Inteligente,
Embeddings, FAISS, Ollama, RAG.
Introducción
A lo largo del tiempo, los asistentes
conversacionales han experimentado una
transformación sin precedentes, desde chatbots
con respuestas preestablecidas a sistemas
complejos basados en modelos de lenguaje de
gran escala (Large Language Models, LLM).
Esta transformación ha impulsado su
incorporación en distintos entornos educativos.
Dentro de este ámbito, herramientas como
ChatGPT representan un cambio significativo
gracias a su capacidad de generar textos y asistir
en tareas académicas (Tramallino y Marize,
2024). No obstante, su implementación trae
consigo debates sobre ética, transparencia y su
uso apropiado (Bustamante y Camacho, 2024).
En la enseñanza universitaria, en estudios
recientes han analizado cómo se emplea
ChatGPT, señalando ventajas, desventajas e
indicando que las instituciones deben crear
normas o políticas claras de uso (McGrath et al.,
2025). También, estas herramientas se pueden
utilizar como apoyo para la escritura de trabajos
y la investigación (Khalifa y Albadawy, 2024).
Sin embargo, se debe revisar con expertos para
minimizar el sesgo y alucinación del contenido.
En Ecuador, considerando la necesidad de
pautas para un uso responsable, se han realizado
investigaciones acerca de cómo emplear