lunes, 25 de febrero de 2013

Medición de QoS

Calidad de servicio (QoS) es la capacidad de transmitir en buenas condiciones un tipo de tráfico dado, en términos de disponibilidad, rendimiento, retardo de transmisión, la fluctuación, la tasa de pérdida de paquetes, etc.

La calidad de servicio es un concepto de gestión que se ha diseñado para optimizar los recursos de red (Sistema de Gestión de la Información) o un proceso (logística) y asegurar un buen rendimiento para aplicaciones. La calidad del servicio ofrece velocidades de los usuarios y los tiempos de respuesta siguiendo los protocolos implementados en la estructura.
Permite a los proveedores de servicios de redes participar formalmente con sus clientes sobre las características de transporte de datos en sus infraestructuras IP.

La calidad del servicio es un concepto subjetivo. Dependiendo del tipo de servicio propuesto, la calidad puede residir en la velocidad (descarga o transmisión de vídeo), tiempo (para las aplicaciones interactivas y de telefonía), disponibilidad (acceso a un servicio compartido) o la tasa de pérdida paquete (sin pérdida de influencia de voz o de vídeo, pero fundamental para la descarga).

Características

En una red, la información se transmite en forma de paquetes, pequeños elementos de transmisión de router a router hasta el destino. Todos los tratamientos por lo tanto operarán en estos paquetes.
Aplicación de la calidad de servicio requiere primero el reconocimiento de los diferentes servicios. Esto puede basarse en muchos criterios:

  • La fuente y el destino del paquete.
  • El protocolo utilizado (TCP / UDP / ICMP / etc.)
  • Los puertos de origen y de destino en el caso de TCP y UDP.
  • La fecha y la hora.
  • Congestión de la red.
  • La validez de encaminamiento.
  • Ancho de banda consumido.
  • La latencia.
Basándose en estos criterios, diferentes estrategias se pueden aplicar para garantizar una buena calidad, los parámetros clave para medir la calidad en el servicio de vídeos como Ustream son los siguientes:

Latencia

La latencia es también llamada retardo. Es un problema general de las redes de telecomunicación. Un ejemplo en los enlaces vía satélite la latencia es muy elevada por las distancias que debe recorrer la información. La latencia en VoIP se define como el tiempo que un paquete tarda en llegar desde la fuente al destino.
La latencia entre la fuente y el destino final de la comunicación debe ser inferior a 150ms. El oído humano es capaz de detectar latencias de 250 ms, cuando se pasa ese umbral la comunicación se vuelve molesta.
Cuando el problema de la latencia está en nuestra propia red se puede aumentar el ancho de banda o velocidad del enlace o dar cierta prioridad a esos paquetes dentro de nuestra red.

http://www.ravica.com/blog/netflow-probes/latency-using-netflow-from-the-nprobe-part-2-2/
Jitter

Jitter pasa en las redes de datos no orientadas a conexión y basadas en conmutación de paquetes. La información es discretizada en paquetes y cada paquete puede seguir una ruta diferente para poder llegar a su destino.
El jitter es definido como la variación en el tiempo de que los paquetes llegan, que es causada por congestión de red, la perdida de sincronización o por diferentes rutas seguidas por los paquetes al destino.
http://www.sciencedirect.com/science/article/pii/S1084804509000964
Las comunicaciones que son en tiempo real (como VoIP) son muy sensibles a este efecto. Es un problema muy frecuente en enlaces lentos y/o congestionados. Se cree que el aumento de mecanismos de QoS (calidad del servicio) como dar prioridad en las colas, la reserva de ancho de banda o los enlaces de mayor velocidad como por ejemplo 100Mb Ethernet, reducen los problemas del jitter en el futuro aunque este seguirá siendo un problema por bastante tiempo.
El jitter debiera ser ser menor a 100 ms. Si el valor es inferior a 100 ms el jitter puede ser compensado de manera apropiada. De otra manera debe ser minimizado.
Una solución ampliamente usada es la utilización del jitter buffer. El jitter buffer es básicamente asignar un pequeño almacén para recibir los paquetes y servirlos con un pequeño retraso. Si hay alguno paquete que no está en el buffer se descarta. Un aumento del buffer significa menos perdida de paquetes pero más retraso. Y una disminución significa menos retardo pero más perdida de paquetes.

Pérdida de paquetes

Las comunicaciones que son en tiempo real se basan en el protocolo UDP. Este protocolo no se orienta en conexión y cuando hay una pérdida de paquetes no son reenviados. La perdida de paquetes también puede ser producida por descartar paquetes que no llegan a tiempo al destino.
Pero la voz es predictiva y cuando se pierden paquetes aislados es posible recomponer la voz de una manera óptima. El problema es grande cuando hay pérdidas de paquetes en cadena.

http://giservices-la.com/perdida-de-paquetes/

El valor máximo de perdida de paquetes que se admite deber ser menor al 1% para que la comunicación no se vea afectada.
Una manera de evitar la perdida de paquetes de sonido es no transmitir los silencios.
Este problema esta relacionado con el jitter y el jitter buffer.

Ancho de banda

El ancho de banda de las comunicaciones es limitado y casi siempre esta compartido por muchas aplicaciones (correo electrónico, web, tráfico FTP, descarga de archivos, etc.).
El ancho de banda se puede definir como la cantidad de datos que es posible enviar a través de una conexión de red en un período de tiempo dado. El ancho de banda se mide en bites por segundo (BPS), kilo-bites por segundo (kbps), o mega-bites por segundo (mps).

http://interactivelectronic.wordpress.com/2011/01/16/ancho-de-banda/
Si se tienen problemas de ancho de banda es posible abordar el problema desde varios frentes como: Aumentar el ancho de banda esto normalmente se hace pagando más por el servicio y reducir el consumo de otras aplicaciones del internet.


Referencias

QoS
Calidad de servicios

1 comentario: