¿Cuál es la función de la QOS de IP?
Las redes IP se están convirtiendo gradualmente en una plataforma de comunicación básica. Cada vez más servicios de valor agregado, especialmente servicios multimedia, se ejecutarán en redes IP. Cómo garantizar la QoS de los servicios en redes IP se ha convertido en una clave. problema en el desarrollo de nuevos servicios. Este artículo presenta la arquitectura principal para implementar QoS en redes IP, centrándose en los principios de la arquitectura principal DiffServ y la capacidad de una nueva generación de equipos de red orientados a servicios representados por el enrutador de servicio Alcatel 7750 SR para admitir QoS.
Palabras clave: IP; QoS; DiffServ; 7750 SR
Con el rápido desarrollo de Internet en todo el mundo, la tecnología IP se ha convertido gradualmente en una plataforma de red ampliamente utilizada. Su economía, flexibilidad y capacidad para admitir múltiples servicios no tienen comparación con la red de conmutación de circuitos original. Sin embargo, la tecnología IP tradicional solo puede utilizar el método de mejor esfuerzo (Best Effort) para reenviar paquetes de datos. Este método solo puede transmitir datos lo más rápido posible dentro de su rango de capacidad, pero tiene un impacto negativo en el rendimiento, el retraso y la fluctuación del retraso. No hay garantías sobre la pérdida de paquetes y la pérdida de transmisión la maneja el sistema final.
Este modo de mejor esfuerzo solía ser apropiado porque la mayoría de las aplicaciones tradicionales basadas en IP (como Telnet, FTP, etc.) pueden tolerar grandes retrasos y fluctuaciones de retardo. Sin embargo, las cosas están cambiando rápidamente. Nuevos servicios como la telefonía, el vídeo y la WEB son cada vez más comunes; los nuevos servicios multimedia requieren grandes cantidades de ancho de banda y plazos ajustados y el crecimiento exponencial de los usuarios de Internet está provocando una mayor latencia y congestión de la red;
Si bien ampliar la capacidad de los nodos y enlaces de la red es parte de la solución, simplemente agregar ancho de banda cuando ocurren problemas no es suficiente porque no se puede eliminar la congestión temporal y repentina de la red en Internet. La Internet de próxima generación debe poder brindar diferentes niveles de garantías para que ciertas aplicaciones y usuarios alcancen la calidad de servicio (QoS) de las redes IP al mismo tiempo, combinado con la implementación de SLA (Acuerdo de Nivel de Servicio), proporcionándoles; servicios diferenciados, para que las empresas de prestación de servicios IP puedan realmente obtener beneficios.
Modelo QoS IP
Actualmente, IETF ha definido muchos modelos y mecanismos para implementar QoS a través de IP, incluyendo principalmente:
Marcado de prioridad relativa [ 1].
El modelo de marcado relativo es el modelo de QoS más antiguo. Su mecanismo es que la aplicación terminal o el agente establece una prioridad relativa para su flujo de datos y marca el encabezado del paquete de datos correspondiente, y luego el nodo de red La marca es. remitido en consecuencia. Este modo es muy simple de implementar, pero su granularidad es tosca y carece de procesos de QoS avanzados (como marcado, política y configuración, etc.) y no puede lograr garantías de QoS detalladas y diversas. La tecnología actual que utiliza este modo es la priorización de IPv4 (RFC791). Además, Token Ring Priority (IEEE 802.5) y Ethernet Traffic Class (802.1p) también utilizan esta arquitectura.
II. Modelo de Servicio Integrado (Inter-Serv) [2]
La idea de diseño es definir un conjunto de funciones extendidas basadas en el modelo de servicio de mejor esfuerzo, que se pueden proporcionar. Cada QoS basada en aplicaciones se proporciona para cada conexión de red y se utiliza un protocolo de señalización para crear y mantener un estado específico del tráfico en cada enrutador de la red para satisfacer las necesidades del servicio de red correspondiente. .
El sistema distingue y garantiza claramente la calidad de servicio de cada flujo de servicio, proporcionando la diferenciación de calidad de servicio más detallada para la red. Sin embargo, la implementación en redes centrales IP es problemática porque la implementación de Inter-Serv requiere un procesamiento computacional extenso para cada flujo en cada nodo de la red. Esto incluye señalización de extremo a extremo e información relacionada para diferenciar cada flujo, seguimiento, uso de recursos informáticos, control de políticas y programación del tráfico del servicio. A medida que aumenta el número de flujos de datos Inter-Serv, los recursos del enrutador consumidos por el procesamiento y almacenamiento de la señalización Inter-Serv también aumentan rápidamente, lo que también aumenta en gran medida la complejidad de la gestión de la red. Por lo tanto, la escalabilidad de este modo es relativamente baja. . Diferencia.
El modelo técnico actual es: MPLS-TE (RSVP), y los otros más típicos son ATM y Frame Relay.
3. Modo de servicio diferencial (Diff-Serv) [3]
A diferencia de IntServ, que actúa sobre cada flujo, en la arquitectura DiffServ, el flujo de servicio se divide en diferentes servicios. categorías (hasta 64). El nivel de servicio diferencial de un flujo de servicio está marcado por el campo DiffServ CodePoint (DSCP) en el encabezado de su paquete IP. En una red que implementa DiffServ, cada enrutador reenviará el paquete de datos en consecuencia según el campo DSCP del paquete de datos (también conocido como PHB (Per Hop Behavior)).
Aunque DiffServ no puede proporcionar garantías de calidad de servicio diferentes para cada flujo de servicio. Sin embargo, debido al uso de la tecnología de clasificación de flujo de servicios, no es necesario utilizar protocolos de señalización para establecer y mantener el estado del flujo en cada enrutador, lo que ahorra recursos del enrutador y mejora en gran medida la escalabilidad de la red. Además, la tecnología DiffServ se puede utilizar no solo en redes IP puras sino también en redes de conmutación de etiquetas multiprotocolo (MPLS) asignando DSCP a etiquetas MPLS y el campo EXP en el encabezado de la etiqueta.
La arquitectura principal de DiffServ se divide en dos capas: capa de borde y capa central.
La capa de borde completa el siguiente trabajo:
- Identificación y filtrado del tráfico: cuando el tráfico del usuario ingresa a la red, el dispositivo de la capa de borde primero identifica el tráfico y filtra el tráfico ilegal de acuerdo con reglas predefinidas y luego asigna el tráfico a diferentes niveles de servicio según la información contenida en el paquete (como direcciones de origen/destino, números de puerto, DSCP, etc.).
- Política y configuración de tráfico: después de que el tráfico de servicio del usuario se asigna a diferentes niveles de servicio, el dispositivo de capa perimetral utilizará los parámetros de QoS en el SLA firmado con el usuario (como CIR (tasa de información comprometida) , PIR (tasa de información máxima)) Da forma al tráfico para garantizar que el tráfico que ingresa a la red no exceda el rango establecido en el SLA.
- Observación de tráfico: después de la configuración, el dispositivo de capa de borde establecerá una marca de nivel de servicio en el paquete de acuerdo con el nivel de servicio, como el campo DSCP en el encabezado del paquete IP o el campo EXP en MPLS. encabezado del paquete, de modo que los dispositivos de capa central sean capaces de identificar y procesar el tráfico.
En comparación con la capa de borde, la capa central es mucho más simple. El dispositivo de la capa central identifica el campo QoS en el paquete de datos de acuerdo con la política de QoS predefinida y realiza el procesamiento de QoS correspondiente. Esta estructura en capas forma una arquitectura de red QoS de "borde inteligente + núcleo simple", que no solo mejora la escalabilidad de la red, sino que también mejora en gran medida la flexibilidad del procesamiento de QoS.
Dispositivos de red IP que admiten DiffServ
Debido a la flexibilidad y escalabilidad de DiffServ, casi todos los dispositivos de red IP actualmente admiten la arquitectura DiffServ.
El soporte de la arquitectura DiffServ en dispositivos de red generalmente requiere las siguientes funciones:
-Diferenciación de tráfico de múltiples condiciones
La diferenciación de tráfico de múltiples condiciones se refiere a la condición diferente La información y las reglas de diferenciación predefinidas contenidas en el tráfico de clientes se utilizan para clasificar los niveles de reenvío de tráfico. Las reglas de diferenciación tienen el formato de una lista de control de acceso (ACL), y cada regla contiene diferentes condiciones coincidentes y niveles de reenvío correspondientes. Cuando el tráfico del cliente cumpla las condiciones coincidentes de las reglas de diferenciación, el tráfico se clasificará en el nivel de reenvío correspondiente. Las condiciones coincidentes pueden ser puertos físicos, VLAN, varios campos de IP, varios campos de MAC, etc.
- Marcado de tráfico y mapeo de niveles de reenvío
El tráfico diferenciado por reglas de diferenciación se asigna a diferentes niveles de reenvío. DiffServ define múltiples niveles de reenvío estándar:
- Reenvío acelerado. class
La clase de reenvío acelerado tiene la prioridad de reenvío más alta. El dispositivo debe garantizar que el tráfico de otras clases de reenvío no afecte el retraso y la inestabilidad del tráfico en la clase de reenvío acelerado. normalmente lo hace Razones para el tráfico de control de red y el tráfico sensible a la fluctuación, como VOIP.
- Clase de reenvío garantizado
Esta es una clase de reenvío estándar que DiffServ puede utilizar para una variedad de propósitos.
La clase de reenvío garantizado es muy similar a la QoS de Frame Relay y proporciona configuraciones de parámetros PIR (velocidad máxima de información) y CIR (velocidad de información comprometida) para el tráfico de servicios. Cuando el tráfico de clientes es menor que el CIR, se marca como "dentro del perfil" y cuando el tráfico de clientes excede el CIR, se marca como "fuera del perfil". Con esta distinción, cuando se produce una congestión de la red, el tráfico "fuera del perfil" se descarta antes que el tráfico "dentro del perfil".
- Mejor clase de reenvío
La mejor clase de reenvío es la clase de reenvío con la prioridad más baja. El tráfico de mejor clase de reenvío solo se reenvía después de que se hayan completado la clase de reenvío acelerado y el tráfico de clase de reenvío garantizado. reenviado.
Después de determinar el nivel de reenvío del tráfico, el dispositivo marca el tráfico en consecuencia para que los dispositivos de red descendentes puedan identificar y procesar el tráfico de la misma manera, logrando así una política de QoS unificada.
Los campos de etiqueta definidos en el estándar DiffServ son el campo DSCP en el encabezado del paquete IP y el campo EXP en el encabezado del paquete MPLS.
- Cola y programación
El procesamiento de reenvío para cada clase DiffServ se implementa mediante cola y programación. Una cola es un concepto lógico, en realidad una sección de la memoria caché en el caché del dispositivo, que sigue la regla de "primero en entrar, primero en salir". El sistema a menudo configura múltiples colas para múltiples niveles de reenvío. Cuando se determina que un paquete de datos tiene un determinado nivel de reenvío, se almacenará en la cola correspondiente y luego el sistema lo configurará de acuerdo con diferentes niveles de reenvío y diferentes configuraciones de parámetros. (PIR, CIR) para programación. Los diferentes niveles de reenvío a menudo utilizan diferentes algoritmos de programación. Por ejemplo, el nivel de reenvío acelerado utiliza una programación de "prioridad estricta", es decir, los paquetes de datos del nivel de reenvío acelerado siempre se programan primero en la cola para garantizar su clase de prioridad más alta. Para el nivel de reenvío garantizado, se utiliza un algoritmo de programación por turnos ponderado para programar primero todo el tráfico "entrante" y luego todo el tráfico "saliente" para garantizar que cada cola de nivel de reenvío garantizado pueda programarse de acuerdo con su CIR y PIR.
- Control de congestión
Cuando el buffer de la cola se llena, el sistema se congestiona y comienza a descartar una gran cantidad de paquetes recién recibidos hasta que la fuente de datos pasa por el mecanismo de control de flujo de TCP ( El protocolo de ventana deslizante) detecta la pérdida de paquetes, reduce la velocidad de envío para eliminar la congestión y reinicia el reenvío. Sin embargo, a medida que la tasa de fuentes de datos continúa aumentando, se producirán nuevamente congestión y pérdida de paquetes en el sistema, y este ciclo tendrá un gran impacto en el rendimiento general de la red. Por lo tanto, la arquitectura DiffServ generalmente introduce un mecanismo de control de congestión. Los algoritmos comúnmente utilizados son RED y WRED. El llamado RED se refiere al algoritmo de detección temprana aleatoria, que reduce la transmisión TCP descartando aleatoriamente algunos paquetes de datos antes de que ocurra la congestión. La participación de la parte aumenta y la posibilidad de descartar paquetes aumenta con la ocupación del búfer de cola, evitando así que se elimine una gran cantidad de paquetes.
- MPLS DiffServ
Con la aplicación generalizada de la tecnología MPLS, el grupo de trabajo MPLS del IETF ha definido dos métodos para asignar categorías de IP DiffServ a MPLS LSP:
- E-LSP
Utilice el campo EXP en el encabezado del paquete MPLS para asignar la clase DiffServ de IP.
- Jerarquía DiffServ, esto es más simple, pero como el campo EXP es solo de 3 bits, solo se pueden expresar 8 jerarquías.
- L-LSP
Este método no solo usa el campo EXP, sino que también usa etiquetas MPLS para el mapeo, lo que expande en gran medida el número de niveles expresables, pero la desventaja es que Consume una gran cantidad de recursos limitados de etiquetas MPLS.
Cabe mencionar que otro método para soportar QoS en la tecnología MPLS es utilizar la tecnología de ingeniería de tráfico RSVP-TE, que permite reservar ancho de banda en los nodos a lo largo del camino durante el establecimiento del LSP. se utiliza como parte de la arquitectura InterServ y, a menudo, se utiliza junto con la arquitectura DiffServ para proporcionar servicios que no pueden ser proporcionados por el ancho de banda del enlace troncal.
A medida que más y más servicios multimedia se ejecutan en redes IP, se imponen mayores requisitos de QoS a las redes IP y los enrutadores o conmutadores IP tradicionales solo pueden proporcionar servicios de conexión simples. Aunque la mayoría de ellos también admiten la arquitectura DiffServ, están limitados por la arquitectura y la tecnología de hardware tradicionales y no pueden brindar soporte completo para niveles de servicio segmentados. Por ejemplo, muchos dispositivos tradicionales solo admiten unas pocas colas por puerto físico, lo que no puede satisfacer las necesidades del desarrollo empresarial a gran escala. Algunos dispositivos afectarán en gran medida el rendimiento de reenvío del sistema después de activar la función DiffServ. restricciones de tráfico, no se admiten niveles de reenvío, o incluso si se admiten niveles de reenvío, el ancho de banda disponible no se puede asignar de manera flexible entre diferentes niveles de reenvío, etc. También hay dispositivos que solo admiten restricciones de tráfico simples y no admiten niveles de reenvío, o incluso si admiten niveles de reenvío, no pueden asignar de manera flexible el ancho de banda disponible entre diferentes niveles de reenvío. Estas limitaciones restringen en gran medida el desarrollo de nuevos servicios IP.
Por lo tanto, Alcatel Shanghai Bell ha lanzado una nueva generación de productos IP, que incluyen el enrutador de servicio IP 7750 SR y el conmutador de servicio Ethernet 7450 ESS. Estos productos son esencialmente diferentes de los equipos tradicionales y están completamente dirigidos al nuevo IP. / Diseñado para servicios MPLS. Ambas líneas de productos cuentan con potentes y completos sistemas Qos basados en servicios. Tome el 7750 SR como ejemplo:
El 7750 SR admite políticas de QoS basadas en servicios, que pueden definir políticas de Qos dedicadas para cada instancia de servicio (como cada servicio VPN) en el 7750 SR. En los puertos de acceso a servicios (múltiples usuarios/servicios que acceden al mismo puerto físico), se puede realizar una configuración de entrada y salida independiente para cada tráfico de aplicación por usuario. Cada tráfico de aplicación puede obtener su propio espacio de cola de búfer independiente, y cada cola independiente puede establecer parámetros de configuración de tráfico independientes, como CIR, PIR, MBS, CBS, etc., y admite la programación de QoS jerárquica líder en la industria. El 7750 SR puede admitir 32.000 colas por tarjeta de línea, mucho más que el equipo heredado, y los paquetes de unidifusión y paquetes de multidifusión/difusión se pueden procesar en colas separadas, evitando que los datos de difusión o multidifusión desplacen los recursos de datos de unidifusión. Además, el procesamiento de Qos se puede realizar no sólo en la entrada, sino también en el flujo de datos del cliente en la salida, lo que mejora en gran medida la flexibilidad de la política de Qos.
El sistema Qos del 7750 SR consta de tres partes principales: clasificación del tráfico, gestión de caché y programación del tráfico.
1. El tráfico de usuarios se divide en diferentes niveles de servicio según políticas de clasificación predefinidas. El 7750 SR admite políticas de clasificación potentes y flexibles para clasificar el tráfico de usuarios en función de:
IP ACL: dirección/rango IP de origen/destino, rango/puerto de origen/destino, fragmento de IP, tipo de protocolo, fragmento de dirección IP , Tipo de protocolo, Prioridad IP, DSCP
MAC ACL: 802.1p, Dirección/máscara MAC Src/Dest, Valor EtherType, Valor/máscara SSAP/DSAP/SNAP 802.2 LLC
MPLS :
2. Asigne una cola dedicada a cada clase de servicio, y cada cola tiene los parámetros Qos configurables correspondientes.
- CIR (Tasa de información comprometida): cuando la tasa fuera de cola de la cola es menor que la CIR, el tráfico de la cola se marca como "en la cola" si la tasa fuera de cola; excede el CIR, se marca como "en la cola". El tráfico dentro de la cola se programa antes que el tráfico fuera de la misma cola".
- PIR (Tasa máxima de información): cuando la tasa de eliminación de una cola supera el PIR, el sistema deja de programar paquetes para esa cola.
3. Las colas se asignan desde el grupo de caché de cada tarjeta de línea y cada cola tiene dos parámetros de asignación de caché configurables.
- CBS: Longitud de cola garantizada. Una vez que la longitud de la cola excede el CBS, ya no se garantiza que el sistema distribuya los datagramas entrantes al caché.
- MBS: El valor de MBS es la longitud máxima posible de la cola. Cuando la longitud de la cola excede MBS, los paquetes nuevos que ingresen a la cola se descartarán. Este valor es para evitar que la velocidad de salida de la cola exceda el PIR durante un período prolongado y no pueda programarse, lo que hace que la longitud de la cola crezca y eventualmente consuma todos los recursos de caché para otros paquetes.
4. El planificador controla la programación saliente entre colas.
7750 SR admite la tecnología de programación de colas jerárquicas más avanzada de la industria, que no solo puede controlar el ancho de banda total de uno o varios servicios, sino que también puede subdividir aún más el ancho de banda total para garantizar el ancho de banda de cada servicio. Qos realmente logra una garantía SLA poderosa y flexible. La programación jerárquica configura programadores lógicos de varios niveles. El programador de nivel superior controla el ancho de banda total de un grupo de programadores de nivel inferior, y el programador de nivel superior puede asignar razonablemente el programa del siguiente nivel de acuerdo con el nivel y el peso del. planificador de nivel inferior La aplicación real del CIR y PIR del servidor es la siguiente:
El usuario firmó un SLA con un ancho de banda total de 10M con el operador, que incluye tres tipos de tráfico comercial. a saber, voz: CIR=PIR=2M, vídeo PIR=CIR =2M, acceso a Internet CIR=0, PIR=10M. Si no se realiza la programación jerárquica, el ancho de banda real consumido cuando las tres ráfagas de tráfico alcanzan el valor máximo es 2+2+10=14M, lo que consumirá excesivamente los recursos de red del operador. Si utilizamos programación jerárquica, podemos configurar un programador de 2 capas en el enrutador. La primera capa es responsable de las garantías de QoS individuales para cada tipo de tráfico de servicio. El programador de segunda capa controla los tres tipos de tráfico de servicio para que no superen los 10 M. en cualquier momento, cuando no hay tráfico de voz y solo 2 millones de tráfico de video, el tráfico de Internet puede aumentar a 8 millones, lo que no solo garantiza servicios separados para cada empresa, sino que también garantiza servicios separados para cada empresa. Esto no solo garantiza la calidad del servicio individual de cada servicio, sino que también garantiza que el ancho de banda total sea de 10 M.
Conclusión
Bajo la tendencia de desarrollo de la expansión continua de la escala de Internet y el enriquecimiento continuo de los servicios de valor agregado, la garantía de QoS de la nueva Internet IP se mostrará cada vez más. su importante importancia estratégica y su importancia económica Creemos que el diseño orientado al servicio de Shanghai Bell Alcatel 7750 SR y 7450 ESS es la mejor manera de garantizar la calidad del servicio de cada empresa y la mejor manera de garantizar la calidad del servicio de cada empresa. Creemos que los modelos 7750 SR y 7450 ESS orientados a servicios de Alcatel Shanghai Bell pueden ayudar a los operadores a construir una nueva generación de redes IP rentables.
Referencias
[1] Almquist, P., "Type of Service in the Internet Protocol Suite", RFC 1349, julio de 1992.
[2] Braden, R., Clark, D. y S. Shenker, "Servicios integrados en la arquitectura de Internet: descripción general", RFC 1633, julio de 1994.
[3] S. Blake, D. Black, M. Carlson, E. Davies, Z. Wang: "Una arquitectura para servicios diferenciados: una descripción general", RFC 1633, julio de 1994. Wang, Una arquitectura para servicios diferenciados, RFC2475, diciembre de 1998.