Características. El Modo de Transferencia Asíncrono (ATM) es una tecnología desarrollada por la Unión Internacional de Telecomunicaciones, que nace para servir de base a la Red Digital de Servicios Integrados de Banda Ancha (RDSI-B).
La principal virtud de ATM es su flexibilidad:
Permite la integración de servicios de voz, vídeo y datos sobre el mismo enlace.
Posibilita la implementación tanto de redes de área local como de redes de área extensa, públicas.
Ofrece al usuario un margen muy amplio de velocidades de conexión.
ATM es una tecnología de transmisión orientada a la conexión que trabaja con unidades de datos de longitud fija, celdas de 53 bytes. Se caracteriza por proporcionar al usuario conexiones virtuales con un ancho de banda arbitrario y con muy baja latencia de celda en los conmutadores: en una conexión a través de un enlace fijo, por ejemplo una línea alquilada, la latencia viene fijada por el ancho de banda, mientras que en ATM depende de la velocidad real del enlace (generalmente mucho más alta que el ancho de banda de la conexión virtual).
Otra ventaja importante de la tecnología ATM es el aprovechamiento que hace de los recursos disponibles gracias a la utilización de multiplexación estadística. Las técnicas de multiplexación por asignación fija, como TDM, asignan un canal a cada una de las conexiones (desde el comienzo hasta la finalización de la conexión). En este sentido, TDM es ineficiente con respecto a ATM debido a que si un usuario no tiene nada que transmitir en un instante determinado su canal queda desaprovechado, mientras que otro usuario que tiene que transmitir mucha información debe conformarse con el ancho de banda de su canal, aunque haya otros libres en ese momento.
La siguiente figura muestra un ejemplo en el que cuatro aplicaciones de usuario transmiten la misma información a través de un multiplexor TDM de cuatro canales y a través de un multiplexor ATM. Las flechas indican la generación de nuevos datos por parte de cada fuente.
La multiplexación estadística del sistema ATM, también conocida como asignación por demanda, permite aprovechar todas las ranuras disponibles, mientras que en TDM aparecen canales desaprovechados, lo que se traduce en una mayor latencia por celda y un menor aprovechamiento de los recursos.
Red Digital de Servicios Integrados de Banda Ancha
El modelo de referencia de protocolo de la RDSI-BA está formado por tres planos: el plano de gestión, el plano de control y el plano de usuario. El plano de control se encarga de la señalización y del tratamiento de la información de control de la conexión. El plano de usuario es responsable de la transferencia de la información útil. Finalmente, el plano de gestión se divide en dos bloques: el plano de gestión propiamente dicho, que controla el funcionamiento global del sistema; y las funciones de gestión de capa, encargadas del manejo de recursos, parámetros de usuario y de la información de Operación y Mantenimiento de la red.
El plano de usuario proporciona funciones para la transferencia de información de usuario: voz, vídeo, datos, etc… Las conexiones conmutadas son gestionadas a través de las funciones del plano de control, que se encarga del establecimiento, monitorización y terminación de las conexiones.
Capa ATM La capa ATM genera celdas de 53 bytes, constituidas por una cabecera de 5 bytes que transporta la información de control y un cuerpo de 48 bytes con la información 'útil' (de usuario, de gestión, etc…), procedente de las capas superiores.
Responsabilidad de la capa ATM:
Multiplexación de canales virtuales.
Eliminación / inserción de celdas vacías.
Identificación de celdas individuales
Identificación del tipo de información que transporta la celda: de usuario, OAM
Asignación / lectura del bit de prioridad de celda
Conformación del tráfico (traffic shaping)
La capa ATM proporciona conexiones transparentes, extremo a extremo, a las capas superiores. Un Canal Virtual (VC) se define como una conexión lógica unidireccional entre dos puntos finales para la transferencia de celdas ATM. Cada canal virtual es caracterizado por un identificador (VCI).
Las especificaciones de ATM permiten hasta 16.7 millones de conexiones virtuales (24 bits) sobre un interfaz de usuario. Sin embargo, los conmutadores no pueden gestionar un número tan grande de conexiones. Por este motivo se define el Trayecto Virtual (VP), identificado por el VPI, como la agrupación lógica de varios canales virtuales. Así, el manejo de las conexiones es jerárquico: por encima queda el nivel de trayecto virtual y por debajo el de canal virtual:
En una red ATM típica, la conexión lógica extremo a extremo recibe el nombre de conexión de canal virtual (VCC) y está soportada por conexiones físicas entre los nodos (conmutadores) de la red.
Capa AAL
La capa de adaptación a ATM transforma los servicios de las capas superiores: voz, vídeo, datos, etc… para permitir su correcta transmisión a través de una red ATM. Constituye un protocolo diseñado para cubrir las necesidades de cualquier clase de servicio.
En este sentido, el Forum ATM en el ATM Forum Traffic Management Specification (1996) define las siguientes categorías de servicio:
CBR - Constant Bit Rate. Servicios con ancho de banda fijo y predeterminado. Calidad equivalente a la de líneas alquiladas
rt-VBR - real time Variable Bit Rate. Para aplicaciones en tiempo real que generan una tasa variable y pueden obtener ventaja de la multiplexación estadística. Calidad comparable a CBR con mejor aprovechamiento de la conexión.
Nrt-VBR - non-real-time Variable Bit Rate. Servicios que no necesiten unos requerimientos tan estrictos en cuanto a retardos, pero sí garantías de entrega de las celdas enviadas
UBR - Unespecified Bit Rate. La red ATM transporta este tipo de tráfico siguiendo la filosofía de 'el mejor rendimiento posible', es decir, ajustando el ancho de banda destinado a estos servicios según las condiciones de carga de la red. No se garantiza la entrega de celdas
Available Bit Rate. Para aplicaciones que pueden variar su velocidad de transmisión (como UBR) pero que necesitan garantizar la entrega de celdas (minimizar la pérdida de celdas). En este caso es la fuente la que ajusta su tasa de generación de celdas dependiendo de las condiciones de la red ATM, por lo que es necesario implementar mecanismos de realimentación red-fuente.
Las diferentes AAL's han sido diseñadas para tratar con una o varias de estas categorías, según las necesidades del servicio concreto:
AAL1: Utilizada básicamente para implementar Emulación de Circuito. Soporta conexiones CBR a través de la red ATM. La secuencia síncrona de entrada (por ejemplo voz o vídeo) es segmentada y colocada en celdas ATM junto con un número de secuencia (SN) de 3 bits para detectar pérdida de celdas y conseguir una entrega ordenada. Para la recuperación del sincronismo de la secuencia original utiliza el bit CSI.
AAL2: Fue diseñada para optimizar el transporte de tráfico rt-VBR pero la primera versión no llegó a concretarse*. AAL3/4: Utilizada para el transporte de servicios que no necesitan requerimientos especiales en lo que respecta al retardo de celda. Además permite tanto servicios orientados a la conexión como no orientados a la conexión (en este caso haciendo uso de las funciones
CLSF -ConnectionLess Server Function- proporcionadas por la red ATM).
AAL3/4 proporciona información adicional que permite gestionar la multiplexación de mensajes de muchos usuarios sobre el mismo circuito virtual entre el terminal de usuario y el dispositivo que implementa la función CLSF. De esta forma es posible la interconexión de sistemas LAN a través de una red ATM. La desventaja fundamental es la sobrecarga que introduce sobre las unidades de datos de las capas superiores. Además, debido a su complejidad, algunas funciones de la AAL3/4 no son implementadas, dejando a la red ATM (a través de la CLSF) esta responsabilidad.
AAL5: A diferencia de las otras AAL's, que surgieron como especificaciones de la UIT, la AAL5 es un desarrollo de la industria de las telecomunicaciones y ha sido optimizada para el transporte de datos. Se diseñó para permitir conexiones punto-a-punto y punto-multipunto, con la ventaja de que elimina la sobrecarga que introduce AAL3/4. Aunque la eliminación del campo SN (Sequence Number) introduce algunas limitaciones, es la opción universamente aceptada para entornos LAN ATM y WAN ATM .
Gestión de la red
Como vimos en la introducción, la tecnología ATM se ha desarrollado para reunir las ventajas de la conmutación de circuitos con las de la conmutación de paquetes. Una de las premisas fundamentales es mantener una calidad de servicio equivalente a las de las líneas alquiladas, labor muy complicada si se tiene en cuenta que para asegurar una calidad de servicio extremo a extremo deben entrar en juego todos los nodos intermedios de la ruta, participando en un proceso de negociación, realimentación y asignación de recursos.
Se puede dividir la gestión de red en dos dominios básicos:
Control de tráfico - Acciones para evitar la congestión antes de que esta ocurra
Control de congestión - Acciones para minimizar la intensidad o duración de la congestión.
Control de Admisión
Supongamos que una aplicación del usuario A necesita establecer una conexión de canal virtual entre su terminal y el terminal del usuario B:
La aplicación necesitará unos requisitos mínimos de calidad de servicio (generalmente en forma de ancho de banda y parámetros de retardo) y hace la petición de conexión a través de la interfaz de usuario (UNI) de la red ATM.
El equipo de acceso a la red (concentrador o conmutador) se basa en los parámetros de la conexión para determinar si puede asignarle los recursos necesarios, teniendo en cuenta que debe asegurar la calidad de servicio de la conexión entrante y de todas las que se estén cursando en ese momento. En caso afirmativo, el equipo de acceso debe realizar la petición al siguiente conmutador de la ruta, que llevará a cabo las mismas comprobaciones y determinará si puede asignar los recursos solicitados. El proceso se repite hasta alcanzar el equipo de acceso del usuario B. Si todos los nodos están de acuerdo, el terminal del usuario A recibe la confirmación del establecimiento de la conexión de canal virtual y puede comenzar la transmisión de información
Control de Parámetros de Usuario
El control de admisión por sí solo no puede garantizar el control del tráfico real que entra en la red. Esto es así porque cada usuario tiene a su disposición todo el ancho de banda que proporciona el equipo de acceso a la red. Sin otro mecanismo de control, nada impediría que una vez establecida la conexión el usuario inyectara celdas a la máxima velocidad que le permita el acceso.
De hecho, el control de admisión opera con los parámetros de tráfico proporcionados por el usuario (a partir de los cuales se realiza la tarificación en el caso de redes públicas), no con los parámetros reales. El mecanismo adicional de control lo proporcionan las funciones de control de parámetros de utilización (UPC):
La red lleva a cabo el control de parámetros sobre cada conexión de usuario (de canal virtual, de trayecto virtual o de ambas) para evitar que dicha conexión utilice más recursos de los negociados en la etapa de establecimiento de la conexión
Los parámetros descriptores del tráfico de usuario (o simplemente descriptores de tráfico) definen el comportamiento de la secuencia de celdas que será transmitida a través del canal o el trayecto virtual. El conjunto mínimo de descriptores incluye la velocidad de pico (PCR) y una tolerancia a la variación del retardo de celdas (CDVT) asociada. Otros parámetros son: SCR - Sustainable Cell Rate. Velocidad 'media' permitida. Proporciona un límite superior a la velocidad media de la secuencia de celdas transmitida a través de la conexión. MBS - Maximum Burst Size. Tamaño máximo de la ráfaga, es decir, número máximo de celdas que pueden formar parte de una misma ráfaga BT - Burst Tolerance. Tolerancia a la ráfaga. Se define como BT=(MBS-1)(1/SCR-1/PCR) y da idea del tamaño de las ráfagas permitidas para el tráfico de usuario MCR - Minimum Cell Rate. Reserva mínima de ancho de banda. La red asigna un ancho de banda dinámico (en función de las condiciones de congestión) a las conexiones asociadas con servicios ABR. El MCR supone un límite inferior a los recursos proporcionados por la red. Por su parte, la red se compromete a ofrecer una calidad de servicio (QoS) que incluye ppCDV (peak-to-peak Cell Delay Variation), MaxCTD (Maximum Cell Transfer Delay), MeanCTD y CLR (Cell Loss Ratio). El Forum ATM ha propuesto un algoritmo genérico de monitorización de la velocidad de una secuencia de celdas, el GCRA (Generic Cell Rate Algorithm). Hay varias versiones de este algoritmo, por ejemplo el Virtual Scheduling Algorithm o el más conocido Leaky Bucket Algorithm, pero todas ellas tienen una funcionalidad equivalente.
Leaky Bucket
El Leaky Bucket es uno de los algoritmos utilizados para implementar el mecanismo de control de parámetros de tráfico de usuario.
El funcionamiento del algoritmo es sencillo: Un recipiente de una determinada capacidad es vaciado periódicamente a la velocidad que se pretende controlar. Cada vez que llega una celda de la secuencia se incrementa el contenido del recipiente. Si este incremento supone un desbordamiento, la celda es declarada no conforme con el contrato.
Los parámetros de este algoritmo son la velocidad declarada por el usuario (que se corresponde con la velocidad de vaciado del recipiente) y la tolerancia a la variación del retardo de celda (capacidad del recipiente) que tiene en cuenta los retardos sufridos por las celdas en el proceso de inserción en la capa física y en el trayecto hacia el UPC :
Cuando una celda es declarada no conforme con las especificaciones es marcada como descargable (bit CLP=1) o eliminada directamente. La decisión depende de varios factores: las especificaciones del contrato, la prioridad de la celda (bit CLP) y el grado de utilización del conmutador y de la red en ese momento.
Mientras que los servicios de tasa de bits constante (CBR) son monitorizados mediante un único GCRA que controla la velocidad declarada, los servicios de tasa variable (VBR) son controlados por dos GCRA, uno para medir la velocidad de pico PCR y otro para monitorizar la velocidad media SCR.
PREGUNTAS DE ATM
1. ¿Cuál es la idea básica de ATM?
La idea básica de ATM es que, mediante multiplexación estadística, el canal de transmisión nunca se desaproveche por no haber nada que enviar en un instante. Esto ocurre en la transmisión síncrona actual, pues se establece el enlace y se reserva durante el tiempo que dura la conexión, aunque no haya tráfico en todo momento.
2. ¿Dónde se encuentra el Modelo OSI?
En cuanto a su relación con otras tecnologías de transmisión y protocolos decir que ATM puede considerarse Nivel 2 en el modelo de capas OSI; por tanto, se puede enviar tráfico IP a través de ATM. El estándar IEEE 802.6 para redes metropolitanas DQDB (Distributed Queue Dual Bus) es también una forma de cell-relay o envío de paquetes de tamaño fijo y ambos son orientados a conexión. El SMDS (Switched Multi-megabit Digital Services) de Bellcore no es orientado a conexión y no funciona con células, sino con datagramas de longitud variable.
3. ¿Como funciona?
Todos los paquetes, que son de la misma longitud, se juntan en un multiplexor y se envían por la red. El canal siempre estará ocupado, unas veces con la voz (las menos), otras con datos y otras con video. Para el receptor, todas las señales llegan a su estación de trabajo en un tiempo suficiente como para ser usadas a la vez.
4. ¿De que depende el rendimiento de una conexión ATM?
Es una tecnología orientada a conexión: cada estación tiene un circuito dedicada con cada una de las otras estaciones con las que se comunica. Cada estación dispone del ancho de banda que necesita, independientemente del tráfico que generen las otras. Por lo tanto, el rendimiento de una conexión ATM depende de los parámetros que se especifiquen en el momento de la conexión. Esto permite la aplicación de un concepto que se ha dado en llamar "Ancho de Banda a la carta". Esto aporta una enorme flexibilidad y eficiencia.
5. ¿Como se envía la información?
El ATM es una tecnología de conmutación rápida de paquetes basada en células o tramas de longitud fija (53 Bytes). La información producida por cualquier servicio se adaptara en células (si es muy grande, la información, se segmenta en varias células y si es muy pequeña , Ej. la voz, se completa una célula) las cuales serán enviadas a través de la red ATM hasta el otro extremo. Cuando las células llegan al destino, la información es reorganizada se dice que son re-ensamblas, para atender dicho servicio extremo a extremo; previamente solicitado ya sea para voz, datos, imagen o vídeo.
6. Explica brevemente la trama.
Las células constan de un campo de información de 48 octetos y una cabecera de 5 octetos, la cual contiene un conjunto de informaciones de control, como identificadores, que se utilizan para identificación de las conexiones y encaminamiento. El tamaño de la célula de 48 octetos se deriva de un compromiso entre una serie de características deseables para cada tipo de tráfico.
La célula ATM tiene una longitud fija de 53 bytes : Una cabecera de 5 bytes que identifica la célula, su destino dentro de la red con el número de trayecto virtual y canal virtual , una protección adicional para saber si tiene errores y poder auto-corregir la presencia de uno, tipo de carga transportado y su nivel de prioridad para ser eliminada en caso de congestión y una zona de carga de 48 bytes que lleva la información del servicio prestado, sin ninguna protección ante la presencia de errores.
7. ¿Cuáles son las cabeceras que utiliza ATM?
En ATM se tienen dos tipos diferentes para la cabecera de las celdas: La UNI (User-to-Network Interface) proporciona la conexión a la red ATM desde un equipo terminal ATM o bien desde un sistema intermedio, IS, tal como hub, puente o encaminador, que a su vez controla equipos de usuario final. La NNI (Network-to-Network Interface) define la interfaz entre dos nodos ATM; cuando la NNI conecta nodos pertenecientes a distintas redes se denomina NNI-ICI, es decir, NNI-Inter Carrier Interface.
8. Funcionamiento del algoritmo HEC en el receptor.
Inicialmente, el algoritmo de corrección de errores del receptor corrige implícitamente errores simples, calculándose y comprobándose el HEC para cada celda recibida. Cuando se detecta un error, el receptor corrige el error si se trata de uno simple o, en caso contrario, detectará la ocurrencia de un error múltiple. En cualquier caso, el receptor pasa a modo de detección, ya que no trata de corregir errores. La razón de este cambio es que un ruido en ráfaga u otro suceso podría causar una secuencia de errores, situación para la que el HEC resulta insuficiente para su corrección. Cuando se examina una cabecera y no se encuentra un error, el receptor pasa al modo de corrección. El diagrama de flujo muestra los errores resultantes en la cabecera de la celda. La función de protección de errores en la cabecera, recupera todos los errores aislados de un bit y la mayoría de los errores en ráfagas. Las características de error en sistemas de transmisión en fibra óptica parece ser una mezcla de errores simples y errores a ráfagas relativamente largas. En algunos sistemas de transmisión no se utiliza la capacidad de corrección de errores, por consumir mucho tiempo.
9. Diferencias entre Canal Virtual y Trayecto Virtual.
El Canal Virtual, CV, se define en ATM como un término genérico para describir la capacidad de comunicación unidireccional para transportar células ATM. El Trayecto Virtual, TV, es un término genérico para designar un agrupamiento de Canales Virtuales. Todos los CV de un TV tienen los mismos puntos de terminación. Hay que recordar que los ICV tienen un significado local; en definitiva, un ICV identifica un ECV determinado dentro de un Enlace de Trayecto Virtual.
10. Porque existe una c}variación del retardo de celda Para una red ATM, las señales de voz y vídeo puede ser digitalizadas y transmitidas como una secuencia de celdas, lo que requiere, especialmente para voz, que los retardos en la red sean pequeños.
Este es en general el caso de redes ATM, que, como ya hemos discutido, están diseñadas para minimizar el costo de transmisión y el procedimiento interno a la red, de manera que sea posible una conmutación de celdas y un encaminamiento rápido. Existe otro importante requisito que entra a veces en conflicto con el anterior: la velocidad de envío de celda al usuario destino debe ser constante. Ahora bien, es inevitable que exista alguna variabilidad en la velocidad de transmisión de celdas debido a efectos internos a la red y en el UNI origen. Primero consideremos cómo podría el usuario destino hacer frente a las variaciones del retardo de celdas en tránsito desde el usuario frente al destino.
jueves, 24 de febrero de 2011
Suscribirse a:
Enviar comentarios (Atom)
0 comentarios:
Publicar un comentario