Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 5
Mayo del 2026
Página 181
EVALUACIÓN EXPERIMENTAL DEL RENDIMIENTO EN REDES LOCALES BAJO
DIFERENTES ESCENARIOS DE DENSIDAD DE DISPOSITIVOS
EXPERIMENTAL EVALUATION OF PERFORMANCE IN LOCAL NETWORKS UNDER
DIFFERENT DEVICE DENSITY SCENARIOS
Autores: ¹Noé Toledo González y ²Maira Selene Ríos Gómez.
¹ORCID ID: https://orcid.org/0000-0003-0034-8376
²ORCID ID: https://orcid.org/0009-0001-0896-4061
¹E-mail de contacto: noe.toledo@utmatamoros.edu.mx
2
E-mail de contacto: maira.rios@utmatamoros.edu.mx
Afiliación: ¹*²*Universidad Tecnológica de Matamoros, (Mexico).
Artículo recibido: 01 de Mayo del 2026
Artículo revisado: 03 de Mayo del 2026
Artículo aprobado: 05 de Mayo del 2026
¹Ingeniero en Sistemas Computacionales, egresado del Instituto Tecnológico de Matamoros, (México). Maestro en Docencia, egresado
de la Universidad Autónoma de Tamaulipas, (México). Doctor en Proyectos, egresado de la Universidad Centro Panamericano de Estudios
Superiores, (México).
2
Licenciada en Informática, egresada del Instituto Tecnológico de CD Victoria, (México). Maestra en Energías Renovables, egresada de
la Universidad Politécnica de Victoria, (México).
Resumen
El presente estudio analiza el impacto de la
densidad de dispositivos sobre el desempeño de
redes locales de alta conectividad. Se diseñaron
tres escenarios experimentales baja, media y
alta densidad en un laboratorio de pruebas
controlado, utilizando herramientas de
monitoreo como Wireshark, Advanced IP
Scanner e Iperf3. Los parámetros evaluados
fueron la latencia, la pérdida de paquetes y el
ancho de banda, considerados métricas críticas
para determinar la calidad del servicio (QoS) en
entornos de alta demanda. Los resultados
muestran que la latencia se incrementa de 1,30
milisegundos en baja densidad a 4,80
milisegundos en alta densidad; la pérdida de
paquetes se eleva de 0,5 % a 5,8 %, mientras
que el ancho de banda disponible disminuye de
250 Megabits por segundo a 90 Megabits por
segundo, lo que representa una reducción
superior del 64%. Estos hallazgos evidencian la
degradación del rendimiento de red a medida
que aumenta la cantidad de dispositivos
conectados, lo que compromete aplicaciones
sensibles al tiempo como videoconferencias o
sistemas de control industrial. Se concluye que
la gestión proactiva del tráfico, mediante
estrategias de Calidad de Servicio (QoS),
segmentación de red y priorización de tráfico
crítico, constituye una medida esencial para
mantener la estabilidad y escalabilidad en redes
de alta densidad.
Palabras clave: Calidad de Servicio (QoS),
Densidad de Red, Latencia de Red,
Desempeño de Red, Redes LAN.
Abstract
This study analyzes the impact of device
density on the performance of high-
connectivity local area networks (LANs).
Three experimental scenarioslow, medium,
and high densitywere designed in a
controlled test laboratory using monitoring
tools such as Wireshark, Advanced IP Scanner,
and Iperf3. The parameters evaluated were
latency, packet loss, and bandwidth, considered
critical metrics for determining quality of
service (QoS) in high-demand environments.
The results show that latency increases from
1.30 milliseconds in low density to 4.80
milliseconds in high density; packet loss rises
from 0.5% to 5.8%; while available bandwidth
decreases from 250 Mbps to 90 Mbps,
representing a reduction of over 64%. These
findings demonstrate the degradation of
network performance as the number of
connected devices increases, compromising
time-sensitive applications such as
videoconferencing or industrial control
systems. It is concluded that proactive traffic
management, through Quality of Service (QoS)
strategies, network segmentation, and critical
traffic prioritization, is an essential measure for
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 5
Mayo del 2026
Página 182
maintaining stability and scalability in high-
density networks.
Keywords: Quality of Service (QoS),
Network Density, Network Latency,
Network Performance, LANs.
Sumário
Este estudo analisa o impacto da densidade de
dispositivos no desempenho de redes locais
(LANs) de alta conectividade. Três cenários
experimentais, baixa, média e alta densidade
foram projetados em um laboratório de testes
controlado, utilizando ferramentas de
monitoramento como Wireshark, Advanced IP
Scanner e Iperf3. Os parâmetros avaliados
foram latência, perda de pacotes e largura de
banda, considerados métricas críticas para
determinar a qualidade de serviço (QoS) em
ambientes de alta demanda. Os resultados
mostram que a latência aumenta de 1,30
milissegundos em baixa densidade para 4,80
milissegundos em alta densidade; a perda de
pacotes sobe de 0,5% para 5,8%; enquanto a
largura de banda disponível diminui de 250
Mbps para 90 Mbps, representando uma
redução de mais de 64%. Essas descobertas
demonstram a degradação do desempenho da
rede à medida que o número de dispositivos
conectados aumenta, comprometendo
aplicações sensíveis ao tempo, como
videoconferência ou sistemas de controle
industrial. Conclui-se que o gerenciamento
proativo do tráfego, por meio de estratégias de
Qualidade de Serviço (QoS), segmentação de
rede e priorização de tráfego crítico, é uma
medida essencial para manter a estabilidade e a
escalabilidade em redes de alta densidade.
Palavras-chave: Qualidade de Serviço (QoS),
Densidade de Rede, Latência de Rede,
Desempenho de Rede, LANs
Introducción
En la era contemporánea de la
hiperconectividad digital, las redes de área local
(LAN) han evolucionado de manera acelerada
para dar soporte a ecosistemas tecnológicos
cada vez más complejos y heterogéneos.
Bastidas (2024) documenta que el crecimiento
exponencial del Internet de las Cosas (IoT), la
adopción masiva de servicios de Cloud
Computing, la virtualización de infraestructuras
y la transición hacia modelos productivos
asociados a la Industria 4.0 han incrementado
de forma significativa la densidad de
dispositivos conectados en entornos
corporativos, académicos e industriales Este
fenómeno ha transformado a las redes LAN en
plataformas críticas para la operación de
sistemas sensibles al tiempo, tales como
videoconferencias de alta definición, telefonía
IP (VoIP), control industrial automatizado y
aplicaciones de análisis en tiempo real.
En este contexto, las denominadas redes de alta
densidad representan uno de los mayores
desafíos técnicos para los administradores y
diseñadores de infraestructuras de Tecnologías
de la Información (TI). A diferencia de los
escenarios tradicionales, donde la cantidad de
nodos era limitada y el tráfico relativamente
predecible, los entornos actuales concentran
decenas o incluso cientos de dispositivos
compitiendo simultáneamente por recursos de
red finitos. Esta competencia intensiva genera
condiciones de congestión que afectan
directamente el desempeño global de la red,
manifestándose en incrementos de latencia,
pérdida de paquetes y una reducción
significativa del ancho de banda efectivo
disponible para las aplicaciones finales.
La Calidad de Servicio (QoS) se ha consolidado
como un pilar fundamental para garantizar la
estabilidad operativa en estos entornos
saturados. No obstante, el rendimiento de una
red LAN no depende únicamente de la
capacidad física del hardware instalado, sino
que es altamente sensible a la densidad de nodos
activos y a los patrones de tráfico generados.
Diversos estudios han demostrado que, a
medida que aumenta el número de dispositivos
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 5
Mayo del 2026
Página 183
conectados, los mecanismos de acceso al medio
y los procesos de conmutación pierden
eficiencia. Según Bhat (2020) este incremento
en la densidad de nodos provoca fenómenos
críticos como la saturación de los búferes de
memoria, el desbordamiento de colas de
prioridad y la degradación no lineal del
desempeño de la red.
Desde una perspectiva técnica, la congestión en
redes conmutadas se origina principalmente en
la capa de enlace de datos, donde los switches
deben gestionar grandes volúmenes de tramas
Ethernet en intervalos de tiempo cada vez más
reducidos. En escenarios de alta densidad, la
saturación de las tablas de direcciones MAC y
el incremento del tráfico de difusión (broadcast)
generan retardos adicionales que impactan
directamente en la latencia de extremo a
extremo. Este comportamiento resulta
especialmente crítico para aplicaciones de
misión crítica, en las que incluso variaciones
marginales en el Jitter o en la tasa de pérdida de
paquetes pueden derivar en la degradación
severa o el fallo total del servicio.
La literatura especializada coincide en que los
principales indicadores de degradación del
rendimiento en redes locales son la latencia, la
pérdida de paquetes y el ancho de banda
efectivo. Cuando la densidad de dispositivos
supera la capacidad de procesamiento del
hardware de red, las colas de salida se saturan y
los mecanismos de descarte de paquetes, como
el Tail Drop, entran en operación. Este
fenómeno obliga a los protocolos de transporte,
particularmente TCP, a activar procesos de
retransmisión que incrementan aún más la carga
de la red, generando un efecto de
retroalimentación negativa que acelera la
congestión. Aunque los avances en hardware
han permitido aumentar la capacidad de
conmutación, persiste una brecha significativa
en la comprensión empírica de cómo estas
métricas se comportan bajo condiciones
controladas de alta densidad. Investigaciones
recientes han abordado parcialmente esta
problemática.
Vaca (2024) señala que la optimización de
infraestructuras de red requiere un análisis
profundo del tráfico bajo condiciones de estrés
para identificar los límites operativos reales del
sistema. De manera similar, Karthick (2024)
analiza cómo los patrones de tráfico en ráfaga
característicos de entornos IOT saturan los
dispositivos de capa 2, incrementando la
latencia de forma no proporcional. En el ámbito
de las redes inalámbricas, Bravo (2024)
documenta que la competencia por el espectro
radioeléctrico eleva de manera significativa la
pérdida de paquetes, afectando la calidad del
servicio. Asimismo, Vesga et al. (2016)
establecen que tasas de pérdida superiores al 3
% comprometen la inteligibilidad del audio en
sistemas de VoIP, evidenciando la fragilidad de
los servicios en tiempo real frente a la
congestión.
A pesar de estos aportes, existe una limitada
evidencia experimental cuantitativa que evalúe
de forma sistemática el impacto de la densidad
de dispositivos en redes LAN cableadas bajo
escenarios controlados y replicables. Como
señala Ramírez (2022) muchos estudios se
centran predominantemente en simulaciones o
entornos inalámbricos, dejando un vacío en el
análisis empírico de infraestructuras físicas
ampliamente utilizadas en entornos
empresariales y educativos. Esta carencia
dificulta la toma de decisiones informadas en la
planificación de la capacidad y en el diseño de
arquitecturas de red resilientes y escalables. En
respuesta a esta problemática, el presente
estudio tiene como objetivo general evaluar
experimentalmente el impacto de diferentes
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 5
Mayo del 2026
Página 184
escenarios de densidad de dispositivos sobre el
rendimiento de una red de área local, utilizando
métricas críticas de Calidad de Servicio. De
manera específica, se busca: (i) cuantificar la
variación de la latencia, la pérdida de paquetes
y el ancho de banda efectivo bajo escenarios de
baja, media y alta densidad; (ii) identificar el
punto de inflexión a partir del cual la red entra
en un estado de degradación crítica; y (iii)
analizar las implicaciones de estos resultados
para el diseño y la gestión de infraestructuras
LAN de alta conectividad.
Materiales y Métodos
La presente investigación se desarrolló bajo un
paradigma positivista, con un enfoque
cuantitativo y un diseño experimental de corte
transversal, orientado a la medición objetiva del
rendimiento de una red de área local bajo
distintos escenarios de densidad de dispositivos.
El alcance del estudio es de tipo correlacional-
causal, ya que se analizó la relación directa
entre la variable independiente, correspondiente
a la densidad de nodos conectados, y las
variables dependientes asociadas al desempeño
de la red, como la latencia, la rdida de
paquetes y el ancho de banda efectivo
(throughput). Este enfoque permitió establecer
relaciones cuantificables y estadísticamente
significativas entre la carga de la red y la
degradación de la Calidad de Servicio (QoS). El
diseño experimental se fundamentó en la
manipulación controlada de la variable
independiente, incrementando progresivamente
el número de dispositivos activos dentro de la
infraestructura de red, mientras se mantuvieron
constantes las condiciones físicas y lógicas del
entorno. La densidad de nodos se
operacionalizó en tres niveles claramente
definidos: baja, media y alta densidad. Por su
parte, las variables dependientes se midieron
mediante métricas estandarizadas ampliamente
aceptadas en la literatura especializada, lo que
contribuyó a garantizar la validez de los
resultados obtenidos. En este contexto, la
variable independiente estuvo representada por
la densidad de dispositivos, definida como el
número total de nodos activos que generan
tráfico simultáneo dentro de la red LAN.
En cuanto a las variables dependientes, la
latencia se evaluó como el tiempo de ida y
vuelta (Round Trip Time, RTT) expresado en
milisegundos; la pérdida de paquetes se midió
como el porcentaje de paquetes descartados
durante la transmisión; y el ancho de banda
efectivo (throughput) se definió como la
capacidad real de transferencia de datos, medida
en Megabits por segundo (Mbps). Para
garantizar la validez externa y la replicabilidad
del experimento, se configuró un entorno de
pruebas en un laboratorio de redes bajo una
topología de estrella extendida, arquitectura
comúnmente empleada en redes corporativas y
educativas. La infraestructura central estuvo
compuesta por switches administrables de nivel
empresarial, con soporte para enlaces Ethernet
a 1 Gbps (Gigabit Ethernet) y un backplane de
conmutación con capacidad suficiente para
evitar cuellos de botella atribuibles al hardware.
Todos los dispositivos finales se conectaron
mediante cableado estructurado de categoría 6
(Cat 6), asegurando condiciones homogéneas
de transmisión y minimizando posibles
interferencias electromagnéticas externas.
Siguiendo los protocolos de experimentación
propuestos por Rivera (2024) la red operó bajo
direccionamiento IPv4 estático dentro de un
único dominio de difusión, con el propósito de
evaluar de manera directa el impacto del tráfico
de broadcast y los mecanismos de arbitraje de
capa 2 sobre el rendimiento global del sistema.
En la Figura 1 se presenta la infraestructura
física implementada en el laboratorio de redes,
donde se detallan los switches administrables,
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 5
Mayo del 2026
Página 185
los dispositivos finales y los enlaces Ethernet
utilizados durante la fase experimental.
Figura 1. Infraestructura/Laboratorio
Fuente: Elaboración propia
La topología fue diseñada para simular una red
LAN empresarial de alta densidad, utilizando
nodos homogéneos conectados a un switch
central para eliminar variables de latencia
externa. Se definieron tres escenarios
experimentales de carga técnica con el
propósito de evaluar el comportamiento de la
red bajo distintos niveles de exigencia. El
Escenario A, correspondiente a la línea base o
baja densidad, se configuró con 10 nodos
activos y representa condiciones óptimas de
operación, caracterizadas por una mínima
competencia por los recursos del medio de
transmisión. Por su parte, el Escenario B,
denominado de carga nominal o media
densidad, incluyó 25 nodos concurrentes,
simulando un entorno típico de oficina
administrativa o laboratorio académico. El
Escenario C, identificado como de saturación o
alta densidad, se configuró con 50 nodos activos
simultáneamente, con el objetivo de someter a
estrés los planos de control y de datos del
hardware de red, forzando la saturación de colas
de prioridad y los búferes de memoria de los
switches.
En cuanto a la instrumentación y las
herramientas de medición, la recolección de
datos se llevó a cabo mediante una arquitectura
de instrumentación de tres capas, diseñada para
garantizar la precisión, consistencia y
trazabilidad de las mediciones obtenidas. En la
primera capa, orientada a la gestión de activos,
se utilizó el software Advanced IP Scanner para
el inventariado y la validación de los
dispositivos conectados. Esta fase permitió
verificar la correcta asignación de direcciones
IP, la visibilidad de los nodos dentro de la red y
la estabilidad de la topología lógica antes de
iniciar las pruebas de carga.
Figura 2. Auditoría de Red con Advanced IP
Scanner
Fuente: Elaboración propia
Se verificó que todos los dispositivos
identificados estuvieran bajo un
direccionamiento estático para evitar el tráfico
de control adicional generado por las
renovaciones de concesiones DHCP durante las
pruebas. La segunda capa se enfocó en el
análisis de flujo y latencia, utilizando Wireshark
(versión 4.x) como analizador de protocolos de
red. Se realizaron capturas profundas de tráfico
ICMP para calcular el RTT con precisión de
microsegundos, siguiendo la metodología de
análisis de tráfico granular sugerida por Ruiz-
Ríos (2022). Este enfoque permitió distinguir
entre el retardo de propagación y el retardo
inducido por congestión en las colas de los
dispositivos de conmutación, proporcionando
una visión detallada del comportamiento
temporal de la red bajo carga.
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 5
Mayo del 2026
Página 186
Figura 3. Análisis de Tráfico Granular en
Wireshark
Fuente: Elaboración propia.
Las capturas se realizaron en modo promiscuo
para asegurar la visibilidad total del tráfico de
difusión (broadcast) y medir el impacto real en
el procesador de los dispositivos finales. En la
tercera capa, orientada a la inyección de tráfico
y medición del throughput, se utilizó Iperf3 bajo
una arquitectura cliente-servidor. Se optó
deliberadamente por generar tráfico basado en
el protocolo UDP (User Datagram Protocol),
dado que este carece de mecanismos de control
de congestión y retransmisión. De acuerdo con
Villamarín (2022), esta decisión metodológica
permite medir la capacidad máxima de
transporte del canal y cuantificar de manera
directa la pérdida de paquetes y el ancho de
banda efectivo, eliminando las variaciones e
interferencias propias del control de flujo y la
ventana de recepción implementados por TCP.
Figura 4. Pruebas de Rendimiento con Iperf3
Fuente: Elaboración propia
El procedimiento experimental se estructuró en
sesiones de prueba independientes para cada
escenario de densidad. En cada sesión, los
nodos generaron tráfico de manera simultánea
durante intervalos de 300 segundos, tiempo
considerado suficiente para estabilizar las
métricas y evitar mediciones transitorias. Previo
a cada prueba, se reiniciaron los contadores de
los dispositivos de red y se verificó la ausencia
de tráfico residual que pudiera sesgar los
resultados. Para aumentar la confiabilidad de
los datos, cada escenario fue evaluado mediante
múltiples ejecuciones consecutivas,
calculándose posteriormente los valores
promedio de las métricas analizadas. Los datos
crudos fueron almacenados en formatos. pcap y
.csv, asegurando la trazabilidad y la posibilidad
de auditoría posterior del experimento.
El procesamiento y análisis de los datos se
realizó utilizando el software IBM SPSS
Statistics 25. Inicialmente, se aplicó estadística
descriptiva para calcular medidas de tendencia
central y dispersión, tales como media, mediana
y desviación estándar.
Figura 5. Análisis estadístico en IBM SPSS
Statistics 25
Fuente: Elaboración propia
Los datos estadísticos reflejan una muestra de
los paquetes capturados, donde la desviación
estándar permite identificar picos de latencia
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 5
Mayo del 2026
Página 187
causados por el desbordamiento de colas de
prioridad. Posteriormente, se realizaron pruebas
de normalidad para verificar la distribución de
los datos obtenidos. Con el objetivo de
determinar la significancia estadística de las
diferencias observadas entre los escenarios de
densidad, se aplicó un análisis de varianza
(ANOVA) de un factor, considerando un nivel
de confianza del 95 % = 0.05). Este enfoque
permitió establecer si las variaciones en
latencia, pérdida de paquetes y la cantidad real
y exitosa de datos son atribuibles de manera
directa al incremento en la densidad de
dispositivos, descartando la influencia del azar.
El uso de este rigor estadístico fortalece la
validez interna del estudio y respalda la solidez
de los resultados presentados en la sección
siguiente.
Resultados y Discusión
Los resultados obtenidos a partir de la fase
experimental evidencian una degradación
progresiva y no lineal del rendimiento de la red
a medida que se incrementa la densidad de
dispositivos conectados. Este comportamiento
confirma que las redes de área local, aun cuando
cuentan con infraestructura de nivel
empresarial, presentan límites operativos
claramente definidos que se manifiestan bajo
condiciones de alta concurrencia. La evaluación
de los tres escenarios permitió no solo
cuantificar la pérdida de desempeño, sino
también identificar el punto a partir del cual la
red transita de un estado de operación estable
hacia una condición de saturación crítica. En el
escenario de baja densidad, correspondiente a
10 nodos activos, la latencia promedio se
mantuvo en 1,30 ms, con una variabilidad
mínima entre mediciones consecutivas. Este
resultado refleja un plano de datos operando en
condiciones óptimas, donde los procesos de
conmutación se realizan sin la formación
significativa de colas en los puertos de salida de
los switches. En este contexto, el retardo
observado se atribuye principalmente a la
propagación de la señal y al procesamiento
básico de las tramas Ethernet. Al incrementar la
densidad al escenario de carga nominal (25
nodos), se observó un aumento moderado en la
latencia, acompañado de una mayor
variabilidad temporal (jitter). Este
comportamiento sugiere la aparición de colas de
espera intermitentes en los dispositivos de
conmutación, producto de ráfagas de tráfico
concurrentes. Sin embargo, la red aún se
mantuvo dentro de rangos aceptables para
aplicaciones sensibles al tiempo, lo que indica
que el hardware es capaz de absorber cargas
moderadas sin una degradación crítica del
servicio.
En contraste, el escenario de alta densidad (50
nodos activos) evidenció un incremento
exponencial de la latencia, alcanzando un valor
promedio de 4,80 ms, lo que representa un
aumento aproximado del 270 % respecto a la
línea base. Desde una perspectiva técnica, este
fenómeno se explica por la saturación de los
búferes de memoria de los switches y el
incremento del retardo de cola, efecto conocido
como buffer bloat. En este punto, el hardware
entra en un régimen de operación donde la
capacidad de procesamiento es superada por la
tasa de llegada de paquetes, generando retardos
acumulativos que afectan de forma directa a las
aplicaciones en tiempo real.
Tabla 1: Resultados generales en los diferentes
escenarios del análisis de latencia (ms).
Escenario
Latencia
promedio
(ms)
Perdida de
paquetes
(%)
Ancho de
banda
(Mbps)
Baja densidad
(10 disp.)
1.3
0.5
250
Media densidad
(25 disp.)
2.15
2.1
180
Alta densidad
(50 disp.)
4.8
5.8
90
Fuente: Elaboración propia
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 5
Mayo del 2026
Página 188
La tasa de pérdida de paquetes mostró una
correlación directa con el incremento de la
densidad de dispositivos. En el escenario de
baja densidad, la pérdida se mantuvo en 0,5 %,
valor considerado insignificante desde el punto
de vista operativo. No obstante, al escalar hacia
el escenario de saturación, la pérdida de
paquetes se elevó hasta 5,8 %, superando el
umbral crítico establecido por la Unión
Internacional de Telecomunicaciones (ITU-T)
para garantizar la calidad de servicios de voz y
video en tiempo real (Arce, 2020).
Este comportamiento es consecuencia directa
del desbordamiento de las colas de salida en los
switches, donde los mecanismos de descarte de
paquetes, como el Tail Drop, entran en
operación al alcanzarse la capacidad máxima de
los búferes. La pérdida observada no solo afecta
la integridad de los flujos de datos, sino que
desencadena procesos adicionales de
retransmisión en protocolos orientados a la
conexión, incrementando la carga de la red y
profundizando el estado de congestión. Estos
resultados refuerzan lo planteado por Vesga-
Ferreira et al. (2016), quienes advierten que
tasas de pérdida superiores al 3 % comprometen
severamente la inteligibilidad del audio en
sistemas de VoIP.
El parámetro que evidenció el mayor impacto
negativo fue el ancho de banda efectivo, cuya
degradación fue significativamente más
pronunciada que la observada en la latencia. En
el escenario de baja densidad, la red alcanzó un
throughput promedio de 250 Mbps, cercano a la
capacidad teórica esperada para la
infraestructura utilizada. Sin embargo, en el
escenario de alta densidad, el throughput
descendió drásticamente hasta 90 Mbps, lo que
representa una reducción superior al 64 %. Esta
disminución no puede atribuirse únicamente a
la división equitativa del ancho de banda entre
un mayor número de usuarios. Desde una
perspectiva arquitectónica, el incremento de
nodos genera un crecimiento exponencial del
tráfico de control, incluyendo tramas ARP,
protocolos de descubrimiento y mensajes de
gestión, que consumen una porción cada vez
mayor del canal disponible.
Este fenómeno reduce el goodput, entendido
como la cantidad de datos útiles entregados a las
aplicaciones finales, afectando de manera
directa la escalabilidad de la red para servicios
de alta demanda, como transmisión de video 4K
o sistemas de control industrial automatizado.
Un hallazgo relevante de este estudio es la
identificación de un umbral operativo crítico
entre los escenarios de media y alta densidad.
Los resultados sugieren que, al superar
aproximadamente los 3035 nodos activos, la
red comienza a experimentar una degradación
acelerada del rendimiento. Este punto de
inflexión marca la transición desde un estado de
congestión manejable hacia una condición de
saturación estructural, donde los mecanismos
tradicionales de conmutación y arbitraje
resultan insuficientes para mantener niveles
aceptables de Calidad de Servicio.
Este comportamiento confirma lo señalado por
Karthick (2024) quien sostiene que la densidad
de nodos actúa como el principal catalizador de
la entropía en redes locales modernas.
Asimismo, los resultados coinciden con los
experimentos de Tuli (2023), validando que
incluso el hardware de nivel empresarial posee
límites finitos de procesamiento que pueden ser
superados bajo ráfagas de tráfico no gestionado.
La evidencia empírica obtenida guarda una
estrecha correlación con los planteamientos
teóricos revisados. La degradación de los
servicios críticos observada en el escenario de
alta densidad coincide con las advertencias de
Bravo (2024) sobre la necesidad de segmentar
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 5
Mayo del 2026
Página 189
los dominios de difusión para mitigar la
congestión. De igual forma, los resultados
refuerzan la idea de que la simple ampliación
del ancho de banda físico no constituye una
solución efectiva si no se acompaña de una
gestión lógica avanzada de la red. En este
sentido, la investigación demuestra que
estrategias como la implementación de políticas
de QoS, la segmentación mediante VLANs y la
priorización de tráfico sensible al tiempo son
determinantes para preservar la estabilidad
operativa en entornos de alta densidad. Sin una
intervención en la arquitectura lógica de la red,
el incremento en la cantidad de dispositivos
conectados conduce inevitablemente a una
degradación severa del rendimiento,
independientemente de la capacidad nominal
del hardware instalado.
Conclusiones
El presente estudio permitió validar de manera
empírica y cuantificable que la densidad de
dispositivos conectados constituye el principal
factor de degradación del rendimiento en las
redes de área local modernas. A partir de un
diseño experimental controlado, se evidenció
que el comportamiento de la infraestructura no
se degrada de forma lineal ante el incremento de
nodos, sino que presenta una dinámica crítica al
aproximarse a los límites operativos del
hardware de conmutación. Este hallazgo
confirma que la saturación de las redes LAN no
es un fenómeno gradual, sino un proceso
acelerado que emerge al superarse
determinados umbrales de carga. Los resultados
obtenidos demuestran que el aumento en la
densidad de dispositivos provoca un incremento
significativo de la latencia, que alcanzó valores
hasta un 270 % superiores a los observados en
condiciones de baja carga. De manera
simultánea, la pérdida de paquetes escaló hasta
un 5,8 %, superando los valores máximos
recomendados por los estándares
internacionales de Calidad de Servicio para
aplicaciones sensibles al tiempo. Estos
indicadores sitúan a la red en un estado de
operación no óptimo, donde servicios críticos
como la voz sobre IP, la videoconferencia y los
sistemas de control en tiempo real ven
comprometida su funcionalidad y estabilidad.
Asimismo, se concluye que el ancho de banda
efectivo experimenta una erosión severa a
medida que aumenta la concurrencia de nodos.
La reducción superior al 64 % observada en
escenarios de alta densidad no responde
únicamente a la división de la capacidad física
entre más usuarios, sino al crecimiento
exponencial del tráfico de control y a la
saturación de los mecanismos de arbitraje de
capa 2. Este fenómeno pone de manifiesto que
la capacidad nominal del hardware no es un
indicador suficiente del desempeño real de la
red, siendo indispensable considerar métricas
como el goodput y la eficiencia operativa bajo
carga. Un aporte relevante de esta investigación
es la identificación de un umbral operativo
crítico, ubicado entre los escenarios de media y
alta densidad, a partir del cual la red entra en
una fase de degradación acelerada.
Este punto de inflexión representa un elemento
clave para la planificación de la capacidad, ya
que permite anticipar el momento en que la
infraestructura deja de ser escalable sin una
intervención en su arquitectura lógica. En este
sentido, el estudio demuestra que la simple
expansión del ancho de banda físico o la
actualización de hardware resulta insuficiente si
no se acompaña de una gestión inteligente del
tráfico. A partir de los hallazgos obtenidos, se
concluye que la gestión proactiva de la red es un
componente esencial para garantizar la
estabilidad y resiliencia en entornos de alta
densidad. Estrategias como la implementación
de políticas avanzadas de Calidad de Servicio,
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 5
Mayo del 2026
Página 190
la segmentación de la red mediante VLANs o
microsegmentación, y la priorización del tráfico
crítico emergen como mecanismos
indispensables para mitigar los efectos de la
congestión. Estas acciones permiten optimizar
el uso de los recursos existentes y prolongar la
vida útil de la infraestructura sin comprometer
la calidad del servicio.
Desde una perspectiva académica y aplicada,
esta investigación aporta una línea base
experimental que puede ser utilizada como
referencia en estudios futuros orientados a
evaluar nuevas arquitecturas, tecnologías
emergentes o esquemas de gestión de red. No
obstante, se reconoce como limitación que el
estudio se desarrolló en un entorno cableado y
bajo condiciones de laboratorio, lo que abre la
posibilidad de ampliar el análisis hacia
escenarios inalámbricos y entornos productivos
reales. Como líneas de investigación futura, se
propone extender este trabajo hacia redes
inalámbricas de alta densidad bajo estándares
como Wi-Fi 6 y Wi-Fi 7, analizando el impacto
de tecnologías como OFDMA y MU-MIMO en
la mitigación de la latencia y la pérdida de
paquetes. Asimismo, resulta pertinente explorar
la aplicación de funciones de red virtualizadas
(NFV) y mecanismos de gestión basados en
inteligencia artificial, orientados a la detección
temprana de congestión y la asignación
dinámica de recursos.
Referencias Bibliográficas
Arce, J. (2020). Evaluación de parámetros de
QoS en la transmisión de aplicaciones
multimedia en una red FTTH utilizando el
estándar ITU-T G987.
https://scholar.google.com/scholar?q=Evalu
ación+de+parámetros+de+QoS+FTTH+ITU
-T+G987
Bastidas, E. (2024). Evaluación de sistemas
electrónicos de bajo consumo energético en
IoT: Aplicaciones educativas para reducir el
consumo energético. Sage Sphere
International Journal, 1(2), 128.
https://sagespherejournal.com/index.php/SSI
J/article/view/6
Bhat, P. (2020). Quality of Service (QoS)
standards in real-time network applications.
International Journal of Computer Networks,
12(3), 4558.
https://scholar.google.com/scholar?q=Qualit
y+of+Service+(QoS)+standards+in+real-
time+network+applications
Bravo, A. (2024). Impacto de la densidad de
dispositivos en la congestión de canales de
comunicación. Revista de Innovación
Tecnológica, 8(1), 112125.
https://scholar.google.com/scholar?q=Impac
to+de+la+densidad+de+dispositivos+en+la+
congestión+de+canales
Karthick, S. (2024). Dynamics of data traffic in
high-density IoT environments. Journal of
Network Systems, 15(2), 201215.
https://scholar.google.com/scholar?q=Dyna
mics+of+data+traffic+in+high-
density+IoT+environments
Ramírez, L. (2022). Métricas críticas para la
estabilidad de servicios sensibles al tiempo.
Telecomunicaciones Modernas, 10(4), 89
102.
https://scholar.google.com/scholar?q=Métric
as+críticas+para+la+estabilidad+de+servicio
s+sensibles+al+tiempo
Rivera, M. (2024). Evolución del cableado
estructurado y componentes inteligentes.
Ingeniería y Conectividad, 6(2), 3447.
https://scholar.google.com/scholar?q=Evolu
ción+del+cableado+estructurado+y+compon
entes+inteligentes
Ruiz, Y. (2022). Estrategias de optimización y
segmentación de red. Ciencia y Tecnología
de Redes, 4(1), 5670.
https://scholar.google.com/scholar?q=Estrat
egias+de+optimización+y+segmentación+de
+red
Tuli, S. (2023). Network performance analysis
using Wireshark and Iperf3 tools.
International Journal of Cloud Computing,
11(3), 310325.
https://scholar.google.com/scholar?q=Netwo
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 7 No. 5
Mayo del 2026
Página 191
rk+performance+analysis+using+Wireshark
+and+Iperf3+tools
Vaca, J. (2024). Gestión activa de
infraestructuras de red de alta densidad.
Revista Técnica de Ingeniería, 19(1), 1528.
https://scholar.google.com/scholar?q=Gestió
n+activa+de+infraestructuras+de+red+de+al
ta+densidad
Vesga, J., Granados, J., & Vesga, J. (2016).
Degradación de la transmisión de voz sobre
redes LAN en entornos congestionados.
Revista I+D Tecnológico, 12(2), 104118.
https://revistas.utp.ac.pa/index.php/id-
tecnologico/article/view/747
Villamarín, D. (2022). Factores determinantes
para la calidad de servicio (QoS) en entornos
corporativos. Telecomunicaciones y
Sociedad, 5(3), 7790.
https://scholar.google.com/scholar?q=Factor
es+determinantes+para+la+calidad+de+servi
cio+QoS+entornos+corporativos
Esta obra está bajo una licencia
de Creative Commons Reconocimiento-No
Comercial 4.0 Internacional. Copyright © Noé
Toledo González y Maira Selene Ríos Gómez.
Declaraciones éticas y editoriales del artículo
Contribución de los autores (Taxonomía CRediT)
Noé Toledo González: conceptualización de la investigación, diseño metodológico, desarrollo del proceso investigativo, análisis formal de los datos,
redacción del borrador original del manuscrito, revisión crítica del contenido científico y supervisión general del estudio.
Maira Selene Ríos Gómez: curación y organización de los datos, participación en la recolección de información, validación de los resultados obtenidos
y elaboración de representaciones gráficas y visualización de los datos.
Declaración de conflicto de intereses
Los autores declaran que no existe conflicto de intereses en relación con la investigación presentada, la autoría del manuscrito ni la publicación del
presente artículo.
Declaración de financiamiento
La presente investigación no recibió financiamiento específico de agencias públicas, comerciales o de organizaciones sin fines de lucro. En caso de
existir financiamiento institucional o externo, este deberá ser declarado explícitamente por los autores en esta sección.
Declaración del editor
El editor responsable certifica que el proceso editorial del presente artículo se desarrolló conforme a los principios de integridad científica, transparencia
y buenas prácticas editoriales. El manuscrito fue sometido a un proceso de evaluación mediante revisión por pares doble ciego, garantizando la
confidencialidad de la identidad de los autores y revisores durante todo el proceso de dictamen académico. Asimismo, el editor declara que el artículo
cumple con los criterios científicos, metodológicos y éticos establecidos por la revista.
Declaración de los revisores
Los revisores externos que participaron en la evaluación del presente manuscrito declaran haber realizado el proceso de revisión de manera objetiva,
independiente y confidencial. Asimismo, manifiestan que no mantienen conflictos de interés con los autores ni con la investigación evaluada, y que sus
observaciones y recomendaciones se fundamentan exclusivamente en criterios científicos, metodológicos y académicos.
Declaración ética de la investigación
Los autores declaran que la investigación se desarrolló respetando los principios éticos de la investigación científica, garantizando la confidencialidad
de los datos y el respeto a los participantes del estudio. En los casos en que la investigación involucre seres humanos, los procedimientos deben ajustarse
a los principios éticos establecidos en la Declaración de Helsinki y a las normativas institucionales correspondientes.
Declaración sobre el uso de inteligencia artificial
Los autores declaran que el uso de herramientas de inteligencia artificial, en caso de haberse utilizado durante el proceso de investigación o redacción
del manuscrito, se realizó únicamente como apoyo técnico para mejorar la claridad del lenguaje o el análisis de información, manteniendo siempre la
responsabilidad intelectual sobre el contenido del artículo. Las herramientas de inteligencia artificial no fueron utilizadas como autoras del manuscrito
ni sustituyen la responsabilidad académica de los investigadores.
Disponibilidad de datos
Los datos que respaldan los resultados de esta investigación estarán disponibles previa solicitud razonable al autor de correspondencia, respetando las
normas éticas y de confidencialidad establecidas por la investigación.