-
Alastair Waite de TE
Connectivity destaca el rol vital que el cableado tiene para ofrecer en el
diseño del Data Center del futuro.
Uno de los principales elementos de la
construcción de un Data Center: la infraestructura pasiva, es con frecuencia una de las áreas más
desatendidas. Vista por muchos como “sólo cables”, estamos convencidos de que
esta parte de la infraestructura no puede ser ignorada; es absolutamente
crítica para que todo esté conectado y trabaje bien en conjunto.
Virtualización
La virtualización es una tendencia significativa
que requiere un enfoque claro en el diseño de la infraestructura pasiva. La
llegada de la virtualización ha significado el envío de más y más datos a
través de las redes y sobre conexiones individuales de cableado, a velocidades
mucho más altas. En el pasado, no había tanta propagación de datos a través de
sistemas independientes y medios en el Data Center, pero ahora cada enlace de
cableado necesita estar listo para responder a la gran demanda de ancho de
banda que tendría que soportar en un ambiente altamente virtualizado.
La ventaja de la virtualización para el
propietario del Data Center es que tiene una red única que será de fácil
mantenimiento y operación, con interoperabilidad mejorada y un costo-eficiencia
incrementado.
Sin embargo, la virtualización aumenta el riesgo
de cuellos de botella si la infraestructura de cableado no ha sido diseñada
adecuadamente desde el principio. Esto significa que los propietarios del Data
Center necesitan evitar los cuellos de botella en su infraestructura en la
etapa inicial de diseño con el fin de asegurar una eficiencia sostenida durante
el ciclo de vida del Data Center.
Desarrollos como la virtualización, la nube y
Big Data generalmente impulsan el crecimiento de la transmisión de datos y a su
vez generan una enorme presión sobre la capa física. Se estima que todos los
productos de la capa física planeados (diseñados) en la actualidad puedan
soportar muchas generaciones de redes en el futuro. Como mínimo, existe una
necesidad de planear una infraestructura de cableado del Data Center para
perdurar por 10 años o más, soportando diversas generaciones de cambios en la
tecnología activa.
Switches Spine y Leaf
Un buen ejemplo de esto es el reciente
movimiento desde las arquitecturas tradicionales de Data Center “Tier 3” a los
diseños más horizontales, Tier 2 tipo “Fat Tree”, habilitados por switches Leaf
y Spine.
Los usuarios son cada vez más menos tolerantes a
la latencia, la cual puede darse en arquitecturas que tienen muchos switches y
por lo tanto deben tomar “muchas decisiones” sobre los enrutamientos que los
datos deben tomar a través del Data Center. Para combatir esto, los fabricantes
líderes están lanzando nuevos switches y promocionando arquitecturas que bajan
la latencia a través de, por ejemplo, estos diseños Fat Tree. El resultado de
moverse de Tier 3 a Tier 2 es que todo el cableado usado para interconectar los
switches tendrá que manejar enormes cantidades de datos, y que la agregación de
datos será mucho más cerca al servidor, disminuyendo la jerarquía de switching.
Esto contrasta con el diseño Tier 3 donde sólo los enlaces son conectados a los
switches de nivel más alto, previamente aquellos con el nivel más agregado de
datos, tenían que ser capaces de manejar grandes cantidades de datos.
¿Cuál es la definición de
grande?
Los switches tipo Leaf y Spine que se encuentran en el mercado actualmente
están siendo vendidos con un mínimo de puertos Ethernet de 10 Gigabits para la
conexión a los servidores, mientras que la interconexión entre los mismos
switches tipo Leaf y Spine probablemente correrán a Ethernet de 40 Gigabits,
con proveedores que ya ofrecen plataformas de Ethernet de 100 Gigabits.
Esto es ventajoso ya que la velocidad de I/O
(Entrada/Salida) del servidor también se está incrementando a un índice más
rápido. Las investigaciones más recientes de IDC, Dell’Oro, Crehan e Intel
revelan que un gran porcentaje de servidores se comunicarán a Ethernet de 40
Gigabits en los próximos cinco años, y que dentro de los siguientes tres años
los puertos de Ethernet de 100 Gigabits serán una realidad dominante dentro del
Data Center.
El futuro de la fibra
Para lograr estos tipos de velocidades de
transmisión, la fibra será el medio de transporte a elegir. En la actualidad,
existe una opción de interfaz primaria para conectar plataformas de Ethernet de
40 y 100 Gigabits habilitadas sobre la fibra Multimodo en el Data Center: el
conector MPO. Ya que las señales ópticas
multimodo son transmitidas a través de VCSELs (Láseres de Emisión Superficial
de Cavidad Vertical) producidos en forma masiva fácilmente, esta tecnología
permite la transmisión óptica paralela de bajo costo a través de la capa física
y es la clave para conectar arquitecturas Fat Tree de baja latencia.
Mientras que en 40 Gigabits Ethernet una
interfaz multimodo MPO de 12 fibras se encuentra disponible en muchas
plataformas activas, en 100 Gigabits Ethernet la única opción multimodo
disponible en la actualidad es MPO de 24 fibras. Implementar una solución de
cableado MPO de 24 fibras en el Data Center es extremadamente importante porque
no sólo es una interfaz directa de la actual plataforma de 100 Gigabit
Ethernet, sino que una única troncal de cableado de MPO 24 fibras puede ser
usada para agregar canales de 3x40 Gigabits Ethernet o 12x10 Gigabits Ethernet.
Esto trae dos ventajas principales a una red cuando se piensa en el espacio,
funcionamiento y migración de red:
- Una única troncal de 24
fibras usa menos volumen que tres troncales de cableado de 12 fibras MPO,
cada una con canales de 40 Gigabits Ethernet. Esto significa que se
requiere una menor cantidad de cable en el Data Center, ahorrando capital,
ya que los paquetes pequeños de cables producen un impacto positivo en el
flujo de aire, permitiendo que los sistemas de aire acondicionado
funcionen a un nivel óptimo. Esto permite ahorros en gastos operativos, ya
que en la planta de enfriamiento solo se implementan las cargas
necesarias.
- Algunos sistemas de 24
fibras utilizan cassettes en ambos extremos del troncal. Los cassettes son
realmente una simple manera de terminar la fibra paralela instalada en el
backbone de una red, y al mismo tiempo presentan exactamente la interfaz
correcta al switch o servidor en el gabinete. Mediante la implementación
de este sistema, el administrador del Data Center puede dejar la troncal
de cableado de 24 fibras en lugares “difíciles de acceder” –entre los
racks– cambiando simplemente el
cassette en cada extremo del enlace y presentando una interfaz lista para
10 Gigabits Ethernet, 40 Gigabits Ethernet o 100 Gigabits Ethernet.
En general, se puede lograr un ahorro hasta de
un 52 por ciento de espacio en las trayectorias de cableado al seleccionar un
sistema de troncal de MPO de 24 fibras, sobre su equivalente de MPO de 12
fibras.
Del mismo modo, en términos de eficiencia
energética, el cuidadoso diseño e implementación de la infraestructura física
pueden tener un impacto positivo, particularmente debido a la consideración de
cómo el flujo de aire es gestionado alrededor del centro de datos.
El espacio Premium
La mala práctica dentro del Data Center es a
menudo impulsada por el valor “Premium” que se le da al “espacio en blanco”
–donde la tendencia ha sido empaquetar más y más conexiones en espacios más
pequeños, aumentando el perfil de un concepto denominado Densidad Administrada.
En pocas palabras, este es un enfoque de diseño e instalación que no sólo
entrega densidad para el bien de la densidad, sino que implementa soluciones
para administrar la capa física con un balance óptimo entre la densidad y la
capacidad de administrar eficientemente los
inevitables movimientos, adiciones y cambios una vez que el Data Center
esté funcionando.
Un Data Center bien diseñado incorporará este
concepto, con lo que el operador tendrá la
agilidad de responder a las demandas de nuevas aplicaciones y las
necesidades cambiantes de la empresa y sus clientes. Mientras que el espacio
está en un nivel “Premium” dentro de los centros de datos, aún se debe recordar
que una capa física mal diseñada puede tener un enorme impacto al flujo de
aire, esto significa que las partes más importantes de la infraestructura del
Data Center pueden ser los productos de administración de cables, racks y
gabinetes que conforman la plataforma de cableado.
Pérdida óptica
Otro aspecto importante de la capa física que
impacta la eficiencia de red dentro del Data Center es la pérdida óptica. En
redes heredadas corriendo a velocidades inferiores a 10 Gigabits Ethernet, el
presupuesto óptico (la cantidad de luz para soportar la transmisión entre dos
puertos) es extremadamente generoso. Esto permite que componentes ópticos de
muy pobre calidad puedan ser usados en una red, y el propietario/usuario no
reconoce la degradación en el desempeño de la red.
Hoy, con Data Centers ya implementando 40
Gigabits Ethernet y considerando los enlaces de 100 Gigabits Ethernet, las
apuestas son mucho más altas, lo que hace que el presupuesto de pérdida óptica
haya disminuido dramáticamente. La cantidad de presupuesto óptico ahora
permitida por el IEEE en un canal de 40 o 100 Gigabits Ethernet es hasta un 42
por ciento menos que el que era permitido a 10 Gigabits Ethernet, y hasta un 57
por ciento menos que a 1 Gigabit Ethernet.
Usar conectividad de fibra en un Data Center
pobremente elaborada o fabricada, podría causar el reenvío inoportuno de
paquetes a través de la red cuando se instalen tarjetas más rápidas. Esto a su
vez trae consigo el temido factor de latencia que todos los usuarios y
operadores tratan de evitar.
Conclusión
La capa física es a veces el basamento olvidado
de la red del Data Center y, en muchos casos en el pasado, las penalidades
ópticas han sido benevolentes para permitir que la conectividad de baja
calidad, pase por debajo del radar.
Sin embargo, la siguiente generación de Data
Centers utilizará niveles de virtualización aún más altos y estará llamada a
manejar cargas de datos muy por encima de lo que está manejando en la
actualidad. Todo esto significa que el Data Center del mañana dependerá de cada
aspecto de la red, incluyendo aquellas olvidadas bases de cableado, para
funcionar a un nivel óptimo, mientras ocupan la mínima cantidad del valioso
espacio.
Las Capas 2 y superior ya han alcanzado enormes
eficiencias, pero los administradores y propietarios de los Data Centers
necesitan dar una mirada más de cerca a cómo pueden usar la capa física para
soportar el crecimiento en el futuro, o inversamente, ver cómo la capa física
de cableado puede impedir dicho crecimiento.
El reto que enfrenta ahora la industria del Data
Center es mantener los altos niveles de disponibilidad, mientras ofrece
respuestas más agiles a los cambios rápidos en empresas, aplicaciones y
demandas de usuarios. Los principales generadores de la agilidad, disponibilidad
y eficiencia del Data Center sólo se pueden lograr utilizando soluciones de
infraestructura de la capa física que están diseñadas desde el principio con
estos tres objetivos en mente.
Alastair
Waite, Líder en Centros de Datos en Europa para TE Connectivity
ACERCA DE TE CONNECTIVITY
TE
Connectivity (NYSE: TEL) es una empresa de $13 billones de dólares líder
mundial en conectividad. La compañía diseña y fabrica productos fundamentales
para las conexiones electrónicas de las más importantes industrias en el mundo,
incluyendo la automotriz, energía e industrial, comunicación de banda ancha,
dispositivos para el consumidor, cuidados de la salud, aeroespacial y de
defensa. El compromiso permanente de TE Connectivity con la innovación y la
excelencia en ingeniería, ayudan a sus clientes a satisfacer la necesidad de
una mayor eficiencia en el consumo de energía, comunicación siempre activa e
incremento en productividad. Con cerca de 90,000 empleados en más de 50 países,
TE Connectivity crea las conexiones en las cuales el mundo confía para trabajar
sin fallas cada día.
Para conectarse con la empresa visite el
sitio: www.TE.com/enterprise-latam
regresar/home
0 comentarios:
Publicar un comentario