Una página web hoy en día suele ser la suma de muchos componentes diferentes. La página de inicio de un usuario en un sitio de redes sociales, por ejemplo, puede mostrar las últimas publicaciones de los amigos de los usuarios; las imágenes, enlaces y comentarios asociados; notificaciones demensajes y comentarios pendientes sobre las propias publicaciones del usuario; una lista de eventos; una lista de temas que actualmente generan debates en línea; una lista de juegos, algunos de los cuales están marcados para indicar que es el turno del usuario; y, por supuesto, los anuncios más importantes, del que depende el sitio para obtener ingresos.
Con el aumento de la frecuencia, cada uno de esos componentes es manejado por un programa diferente que se ejecuta en un servidor diferente en el centro de datos del sitio web. Eso reduce el tiempo de procesamiento, pero exacerba otro problema: la asignación equitativa del ancho de banda de red entre los programas.
Muchos sitios web agregan todos los componentes de una página antes de enviarlos al usuario. Por lo tanto, si a un solo programa se le ha asignado muy poco ancho de banda en la red del centro de datos, el resto de la página, y el usuario, podrían estar atascados en esperapor su componente.
En el Simposio de Usenix sobre Diseño e Implementación de Sistemas en Red esta semana, investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial CSAIL del MIT presentan un nuevo sistema para asignar ancho de banda en las redes de centros de datos. En las pruebas, el sistema mantuvo los mismos datos generalesvelocidad de transmisión, o "rendimiento" de la red, como las que se usan actualmente, pero asignó el ancho de banda de manera mucho más justa, completando la descarga de todos los componentes de una página hasta cuatro veces más rápido.
"Hay formas fáciles de maximizar el rendimiento de una manera que divide el recurso de manera muy desigual", dice Hari Balakrishnan, profesor de Fujitsu en Ingeniería Eléctrica y Ciencias de la Computación y uno de los dos autores principales en el documento que describe el nuevo sistema ".Lo que hemos mostrado es una forma de converger muy rápidamente a una buena asignación ".
Uniéndose a Balakrishnan en el artículo están el primer autor Jonathan Perry, un estudiante graduado en ingeniería eléctrica y ciencias de la computación, y Devavrat Shah, profesor de ingeniería eléctrica y ciencias de la computación.
Autoridad central
La mayoría de las redes regulan el tráfico de datos utilizando alguna versión del protocolo de control de transmisión, o TCP. Cuando el tráfico se vuelve demasiado pesado, algunos paquetes de datos no llegan a sus destinos. Con TCP, cuando un remitente se da cuenta de que sus paquetes no estánal pasar, reduce a la mitad su velocidad de transmisión, luego lo vuelve a subir lentamente. Con el tiempo suficiente, este procedimiento alcanzará un punto de equilibrio en el que el ancho de banda de la red se asigna de manera óptima entre los remitentes.
Pero en el centro de datos de un sitio web grande, a menudo no hay suficiente tiempo. "Las cosas cambian en la red tan rápido que esto es inadecuado", dice Perry. "Con frecuencia lleva tanto tiempo que [las tasas de transmisión] nunca convergen, y esuna causa perdida."
TCP otorga toda la responsabilidad de la regulación del tráfico a los usuarios finales porque se diseñó para Internet público, que une miles de redes más pequeñas, de propiedad y operación independientes. La centralización del control de una red tan extensa parecía inviable, tanto política como técnicamente.
Pero en un centro de datos, que está controlado por un solo operador, y con los aumentos en la velocidad de las conexiones de datos y los procesadores de computadora en la última década, la regulación centralizada se ha vuelto práctica. El sistema de investigadores de CSAIL es un sistema centralizado.
El sistema, denominado Flowtune, esencialmente adopta una solución basada en el mercado para la asignación de ancho de banda. Los operadores asignan diferentes valores a los aumentos en las velocidades de transmisión de datos enviados por diferentes programas. Por ejemplo, duplicando la velocidad de transmisión de la imagen en el centro deuna página web puede valer 50 puntos, mientras que duplicar la tasa de transmisión de datos analíticos que se revisan solo una o dos veces al día puede valer solo 5 puntos.
Oferta y demanda
Como en cualquier buen mercado, cada enlace en la red establece un "precio" de acuerdo con la "demanda", es decir, de acuerdo con la cantidad de datos que los remitentes colectivamente desean enviar por él. Por cada par de envío y recepciónEn las computadoras, Flowtune luego calcula la velocidad de transmisión que maximiza el "beneficio" total, o la diferencia entre el valor del aumento de las velocidades de transmisión los 50 puntos para la imagen versus los 5 para los datos analíticos y el precio del ancho de banda requeridotodos los enlaces intermedios
Sin embargo, la maximización de las ganancias cambia la demanda a través de los enlaces, por lo que Flowtune recalcula continuamente los precios y, sobre esa base, recalcula las ganancias máximas, asignando las tasas de transmisión resultantes a los servidores que envían datos a través de la red.
El documento también describe un nuevo procedimiento que los investigadores desarrollaron para asignar los cálculos de Flowtune a través de núcleos en una computadora multinúcleo, para aumentar la eficiencia. En experimentos, los investigadores compararon Flowtune con una variación ampliamente utilizada en TCP, utilizando datos de centros de datos reales.Dependiendo del conjunto de datos, Flowtune completó el 1 por ciento más lento de las solicitudes de datos de nueve a 11 veces más rápido que el sistema existente.
Fuente de la historia :
Materiales proporcionado por Instituto de Tecnología de Massachusetts . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :