Tendencias de desarrollo de sistemas de cableado de centros de datos en la era del Big Data
Nuestra vida diaria a menudo se ve afectada por la generación de big data. A nivel de red 3G existente y 4G de próxima generación, incluido el desarrollo masivo de Internet de las cosas en el futuro, así como la integración de tres redes, están estrechamente relacionados con el desarrollo de la tecnología de la vida e inevitablemente afectarán la generación. de grandes cantidades de tráfico de datos. Big data y la computación en la nube todavía tienen una cierta relación. Hoy no hablamos de cómo analizar big data, sino de qué tipo de redes y sistemas hay detrás de big data para respaldarlo.
Los profesionales de TI están muy familiarizados con el hecho de que las redes IP son ampliamente utilizadas en las redes. Podemos ver el aumento de la IP global. Según los protocolos de comunicación IP cada año, la proporción del tráfico de datos en la industria de Internet, como las telecomunicaciones, las finanzas y el gobierno, está creciendo cada vez más rápido. En particular, el tráfico de video actual en Internet. Ha hecho que la tasa de crecimiento de los datos sea más rápida. Si observamos todo el volumen de datos globales, podemos ver que existe una enorme diferencia en la cantidad de datos generados entre 2015 y 2010. Con el desarrollo de las redes circundantes y las tecnologías de aplicaciones, inevitablemente afectará la tasa de crecimiento de los datos, superando con creces el tráfico de datos generado antes. La cantidad de datos en los próximos diez años será aproximadamente 50 veces la cantidad de datos existentes. Ahora todos usan un teléfono móvil que sea Android o Apple. Los teléfonos inteligentes promoverán en gran medida el desarrollo de Internet móvil. . Del pronóstico de Internet móvil de China, podemos ver que el crecimiento en 2013 y 2012 alcanzó el 70% y el 80% respectivamente.
Otro punto es el Internet de las Cosas. ¿Está relacionado el Internet de las Cosas con Internet? Por supuesto que es relevante. Internet de las cosas es un método de aplicación. El Internet de las cosas tiene una capa de aplicación y una capa de percepción. La capa de percepción se puede ver en el mercado de sensores. De 2010 a 2015, la escala del mercado de Internet de las cosas aumentó significativamente cada año en la Internet móvil. Muchas cosas utilizan sensores para operar. Agrega datos continuamente a los datos. Cuando el centro transmite datos, su cantidad de datos es asombrosa. Debido a que una persona controla un terminal móvil, pero muchos objetos en el Internet de las cosas son lo que llamamos todas las cosas conectadas, se puede considerar cuánta capacidad de datos de red se debe almacenar para cumplir con los requisitos. Esto conducirá al surgimiento de los problemas relacionados con los big data y la computación en la nube de los que estamos hablando hoy.
El primero es la tecnología de virtualización de centros de datos y la computación en la nube es un servicio de TI proporcionado en base a la tecnología de virtualización. La tecnología de virtualización y los modelos de servicios de computación en la nube brindan ciertas garantías técnicas para big data. El rápido desarrollo de las aplicaciones de servicios de computación en la nube también es un impulso relativamente grande para la formación de nuestros big data. A su vez, ¿qué cambios se producirán en la situación actual basada en la red? En primer lugar, la tecnología de virtualización es el núcleo de la tecnología de computación en la nube. La virtualización de servidores es la primera tecnología de aplicaciones a gran escala. Cuando un servidor está virtualizado, la dinámica interna puede admitir muchas aplicaciones y las aplicaciones se pueden distribuir dinámicamente entre ellas. Este es un proceso muy dinámico porque los dispositivos están configurados para llevar servicios a otros servidores. Existe una máquina que puede soportar veinte o decenas de veces la cantidad de datos de un servidor tradicional. Todos los centros de datos giran en torno a datos. Un centro de datos sin datos es "bienes raíces", por lo que los datos son muy importantes.
Cuando la presión es muy alta, existen grandes desafíos para el sistema de cableado. Cuando los servidores están virtualizados, necesitamos equipos de red más flexibles. La virtualización de la red también es un método muy importante. En el pasado, cuando lanzamos muchos centros de datos, la virtualización utilizaba una gran arquitectura de red de dos niveles para satisfacer las necesidades de big data o computación en la nube. El beneficio final es reducir la arquitectura de la red, lo que minimizará el retraso entre los dispositivos de transmisión de datos y los dispositivos. Este es un requisito muy básico para las ciudades de datos virtualizadas.
Podemos ver que cuando se combinan dispositivos de red central, como conmutadores, en un clúster de conmutación, se encontrará que las relaciones de conexión son muy complejas, por lo que también supone un desafío para la gestión.
La conectividad de la red del centro de datos es un gran enfoque de dos niveles, que utiliza una red central virtualizada y utilizamos cada vez más conectividad de fibra óptica de 10 Gbps en la red troncal. Existen varias soluciones de 10 Gigabit Ethernet que pueden solucionar este problema.
Se puede ver en la tendencia de desarrollo de la red que 2013 es un año en el que cada vez más usuarios están probando las aguas de 40G a 100G. El desarrollo de las redes de 10 Gbps después de 2013 ha sido muy rápido.
Cada vez escuchamos más sobre TOR, que es un nuevo método de construcción. Ahora es más fácil lograr la entrega de gabinetes completos basados en el método TOR. La ventaja de esto es que es muy rápido. Se completaron todas las conexiones de red desde el interior del gabinete hasta el frente, y la conexión en el sitio se realiza entre la red troncal de fibra óptica y la red central fuera del gabinete, realizando la función de implementación rápida del centro de datos.
Muchos clientes ahora pueden producir 500 armarios en dos semanas. Al diseñar y construir todo el sistema de cableado básico de la red y los puentes, la entrega de los gabinetes no se ve afectada y no es necesario cablear ni instalar los gabinetes en consecuencia.
Ejemplo de entrega de armario completo: incluyendo armarios, sistemas de cableado, etc. entregados al mismo tiempo. Para la red de nivel medio de 10 Gigabit que acabamos de mencionar, las opciones de 10 Gigabit que puede elegir incluyen: Tarjetas de red de servidores convencionales para centros de datos de 10 Gigabit Ethernet. Las tarjetas ópticas de 10 Gigabit son más caras, 50.000 RMB. Otras son tarjetas de red SFP+ y tienen un consumo de energía similar, alrededor de dos o tres vatios. El consumo de energía del puerto de red 10G es relativamente grande. Por supuesto, algunas personas también me dijeron que Ethernet tiene una función de activación automática que ahorra energía. Cuando la cantidad de datos en el gabinete del servidor no es tan grande, la cantidad de datos es muy pequeña. Pero ahora todo el mundo habla de big data y computación en la nube, y todos esperan agotar la capacidad potencial de cada servidor. ¿Cómo dejarlo dormir en este momento? Al nivel técnico actual, el consumo de energía de 10 Gigabit está disminuyendo año tras año. Aún no ha alcanzado un estado particularmente ideal y todavía estamos esperando.
No hay ningún problema con la tecnología óptica. Tiene grandes ventajas en términos de consumo de energía, densidad de gestión y distancia. Pero el mayor problema es el precio. También hay cables de cobre. La distancia es bastante buena, 100 metros, y el consumo de energía es relativamente grande, de 4 a 6 vatios. Hace unos años, era más de diez vatios. Ahora es de unos 6 vatios. común, lo cual no es particularmente ideal.
Las fibras con un diámetro relativamente cerrado son más gruesas y ocupan espacio.
A partir del análisis de las aplicaciones de la red 10 Gigabit se puede hacer un resumen general: no hay ningún problema con la tecnología óptica, pero la clave es que es cara. En segundo lugar, 10GbE tiene un alto consumo de energía y puede tener ciertas ventajas en términos de precio. Actualmente, el precio tiene una ventaja en términos de tecnología óptica. Al ingresar a la red troncal de 10G en la capa de acceso de la red troncal del centro de datos, se requiere una red de 40G. En la red troncal, HDA se utiliza principalmente para 40G y 100G. La fibra multimodo puede admitir 100 metros y 50 metros. La fibra multipelícula tiene una ventaja en precio y se utilizará ampliamente en las salas de computación de los centros de datos en el futuro. Los nuevos estándares, especialmente el nuevo estándar 100G, también cambian constantemente. Actualmente, solo se puede utilizar fibra óptica de un solo núcleo para construir conexiones de 40G y 100G. No hay forma de esperar el acceso al cable de cobre en las salas de equipos 4G.
¿Por qué utilizar MTP ahora? Ahora es 10G. Al actualizar a 40G y 100G, los paneles y MTP en ambos lados se actualizarán directamente. Esto requiere un diseño frontal para la red futura, razón por la cual las fibras ópticas MTP se utilizan ampliamente en la actualidad. Las futuras actualizaciones a redes 40G y 100G no son posibles sin esto.
Las redes virtualizadas tienen arquitecturas de red muy complejas, lo que supone un reto para su implementación. El cableado inteligente puede convertir su red que alguna vez fue una pesadilla en una muy limpia. Esta es una infraestructura inteligente, que Rosenberg llama el sistema Pyxis. Se caracteriza por servidores, software de administración, etc. En esencia, ayuda a guiarte automáticamente. Según los estándares ANSI/TIA V e ISO/IEC, los requisitos de estos dos estándares son los mismos: 1. Realizar automáticamente mediciones de frecuencia del estado de la conexión y actualizar el registro
2. Generar automáticamente una alarma función para operaciones no autorizadas
3. Generar automáticamente una hoja de trabajo electrónica
4. Generar informes estadísticos en tiempo real
5. Posicionamiento de la ubicación física del puerto gráfico (CAD)