Cómo 400G cambiaron los centros de procesamiento de datos

Con la rápida implementación de tecnologías en diversas industrias de todo el mundo, los centros de datos se adaptan al principio para cumplir con las crecientes expectativas de los clientes. La historia también indica que la evolución de los centros de datos se caracteriza por un cambio constante en la densidad de la fibra, el rendimiento y la velocidad de las líneas de comunicación.

Los centros de procesamiento de datos se transfieren de tecnologías 100G a tecnologías 400G en un esfuerzo por crear redes más potentes que brindan oportunidades avanzadas para los clientes. Entre los factores que estimulan el despliegue de redes 400G se encuentran los últimos logros en el campo de las tecnologías destructivas como inteligencia artificial, 5G y computación en la nube.

Hoy, los centros de procesamiento de datos prometedores que buscan reducir los costos tanto como sea posible, al tiempo que proporcionan compatibilidad y conveniencia para clientes de alta clase, hicieron de Ethernet 400G una de las prioridades. A continuación, examinamos la evolución de los centros de procesamiento de datos, los factores populares de forma de 400 g y lo que se debe esperar el mercado de conmutación para los centros de procesamiento de datos a medida que la tecnología mejora.

La evolución de los centros de procesamiento de datos

El concepto de centros de procesamiento de datos surgió en la década de 1940, cuando la primera computadora programable en el mundo se convirtió en el pico de la tecnología informática: un integrador digital electrónico y una computadora (ENIAC). Fue utilizado principalmente por el Ejército de los Estados Unidos para calcular el fuego de artillería durante la Segunda Guerra Mundial. Fue complicado en el mantenimiento y la operación y solo podía funcionar en ciertas condiciones.

La evolución de los centros de procesamiento de datos

En este sentido, los primeros centros de procesamiento de datos parecían centrarse en el reconocimiento y el secreto. Idealmente, el centro de datos debe tener una puerta y no una sola ventana. Además de cientos de pies de cables y tubos de vacío, se requirieron enormes agujeros de ventilación y ventiladores para enfriar. Consulte nuestras infografías sobre la evolución de los centros de procesamiento de datos para obtener más información sobre la formación de centros de procesamiento de datos modernos y cómo las tecnologías jugaron un papel importante en la formación de la experiencia de los usuarios finales.

Límites de los centros de procesamiento de datos ordinarios

Entre los jugadores notables que determinan la evolución de los centros de procesamiento de datos se encuentran compañías de desarrollo de procesadores como Intel y AMD. Estas dos compañías mejoran las tecnologías de procesadores, y ambas tienen características excepcionales que pueden mantener cualquier carga de trabajo.

Y aunque la mayoría de los procesadores para los centros de procesamiento de datos son confiables y optimizados para trabajar con varias aplicaciones, no están diseñados para cargas de trabajo especializadas, como grandes analistas de datos, capacitación de máquinas e inteligencia artificial.

Cómo 400G cambiaron los centros de procesamiento de datos

La transición a 400 GBIT/S cambia radicalmente el enfoque del diseño y la creación de centros de procesamiento de datos y redes de interacción inte r-secuencia de centros de procesamiento de datos (DCI). La transición a 400 formaciones Gigabit es más bien un juego especulativo y muy dinámico entre el cliente y el lado de la red.

Actualmente, en un mercado en rápido desarrollo de 400 GBT/s, dos acuerdos multilaterales están luchando por el campeonato al elegir un factor de forma entre los consumidores. Estas dos tecnologías son transivers ópticos/conectados QSF P-DD y OSFP.

OSFP contra QSFP-DD

QSFP-DD es el factor de forma óptico más preferido 400G en el lado del cliente debido a varias opciones de cobertura. La aparición de 400ZR por foro óptico de trabajo por Internet y la tendencia a combinar la conmutación y la transmisión en un caso: estos son dos factores que determinan el desarrollo del lado de la red. Aquí, la elección de los factores de forma se reduce a energía y mecánica.

OSFP, como módulo más grande, proporciona mucho espacio útil para los componentes DWDM, y también tiene la capacidad de disipar el calor de hasta 15 W de potencia. Cuando las capacidades coherentes se colocan en un pequeño factor de forma, la potencia es crucial. Esto le da a OSFP una ventaja competitiva en el lado de la red.

A pesar del hecho de que OSFP es menor que la intensidad de la energía, la compacidad y la integridad de la señal mejorada, no es compatible con los conectores QSFP28. Además, su tecnología no tiene una versión de 100 GB/s, por lo que no puede proporcionar una transición efectiva de módulos obsoletos. Esta es otra razón por la que no se ha distribuido ampliamente en el lado del cliente.

Sin embargo, QSFP-DD es compatible con los conectores QSFP28 y QSFP y recibió un amplio soporte en el mercado. El único problema es una potencia dispersa baja, a menudo no excede los 12 vatios. Esto hace que sea difícil trabajar con ASIC coherente (un esquema integrado específico para una aplicación en particular) y su enfriamiento durante mucho tiempo.

OSFP contra QSFP-DD

La transición a 400GE en los centros de procesamiento de datos también se debe a la transición de servidores a interfaces 25GE/50GE para satisfacer una demanda constante de alta velocidad al almacenamiento y procesar una gran cantidad de datos.

El futuro de los interruptores para los centros de procesamiento de datos 400G

Las empresas que brindan servicios en la nube, como Amazon, Facebook y Microsoft, todavía usan 100G para reducir los costos. Según el informe del Grupo Dell’oro, se espera el pico de popularidad de 100 g en los próximos dos años. Pero a pesar del hecho de que 100G domina el mercado ahora, se espera que para 2023, los suministros de 400 g superen los 15 millones de puertos de interruptores.

En 2018, el primer lote de interruptores 400G se lanzó en base a chips de 12. 8 tbit/s. Google, que fue entonces el único proveedor de servicios en la nube, fue uno de los primeros en ingresar al mercado. Otros proveedores de servicios en la nube ingresaron al mercado con el tiempo, lo que contribuyó a una mayor transformación. Hoy, las empresas que proporcionan servicios en la nube constituyen la mayoría de los 400 g clientes, pero se espera que la próxima línea sea proveedores de servicios.

Elegir un interruptor para el centro de procesamiento de datos

Los interruptores para los centros de procesamiento de datos se producen en varios factores de forma, estructuras y con varias capacidades de conmutación. Dependiendo de los escenarios únicos de uso, es necesario elegir un interruptor confiable para el centro de procesamiento de datos, que proporciona flexibilidad de alto nivel y está destinado al medio en el que se implementará. Entre los factores más importantes que deben tenerse en cuenta en el proceso de elección están la escalabilidad de la infraestructura y la simplicidad de la programación. Un buen interruptor para el centro de procesamiento de datos se caracteriza por una eficiencia energética y un enfriamiento confiable, y también debe proporcionar una fácil configuración e integración con herramientas y sistemas automatizados. Aquí hay un artículo sobre los interruptores para los centros de procesamiento de datos: wiki, consejos sobre uso y compra.