La redundancia puede ser definida como el método llevado a cabo para garantizar la continuidad de un servicio aun cuando uno o varios de sus componentes fallan o no operan con normalidad. Su función resulta de vital importancia, sobre todo en elementos críticos de cualquier tipo de infraestructura. Por ejemplo, un avión está compuesto por dos motores, si uno presenta errores o simplemente no es utilizado, puede continuar volando perfectamente haciendo uso del otro. En el ámbito de las comunicaciones, la redundancia puede y debe ser implementada en prácticamente la totalidad de sus componentes, desde múltiples enlaces para no perder conectividad de extremo a extremo hasta evitar problemas de hardware mediante la duplicidad de fuentes de alimentación o procesadores. Gracias a su aplicación a todos los niveles se hace posible lograr una de las mayores metas en cualquier red, que esta se mantenga operativa el 99,9% del tiempo, traduciéndose en mayor productividad para la compañía, mejor escalabilidad y menor tiempo durante la resolución de problemas.
Un ejemplo bastante sencillo de la diferencia entre una red no redundante (a nivel de enlaces entre switchs) y otra que sí lo es podría ser el siguiente:
Enlace no redundante
Donde SwA y SwB conectan entre sí a través de un solo enlace, lo que representa un único punto de fallo (single point of failure). En la práctica, si este cae, la comunicación entre la red de usuarios y el servidor de aplicaciones no podrá llevarse a cabo. Imagina que las operaciones dependen por completo de dicho servidor, el problema resulta evidente.
Una manera de solucionarlo consiste en implementar redundancia de enlace entre ambos dispositivos, tal que:
Enlace redundante
Gracias a lo cual, si alguno de los tres enlaces entre SwA y SwB cae, la comunicación entre la red de usuarios y el servidor de aplicaciones no se vería afectada. Incluso fallando un segundo, se mantendría operativa a través del link restante.
0 comentarios:
Publicar un comentario