Las grandes páginas web gestionan sus propios “centros de datos”, bancos de decenas e incluso cientos de miles de servidores, todos ellos transmitiendo datos de un lado para otro para satisfacer las solicitudes de los usuarios. Como cualquier red grande y descentralizada, los centros de datos son propensos a la congestión, y si las colas se hacen demasiado largas, los paquetes de datos pueden verse retrasados.
El equipo de Hari Balakrishnan, Jonathan Perry, Amy Ousterhout y Devavrat Shah, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, ha desarrollado un nuevo sistema de administración de redes que, en los experimentos, redujo la longitud media de la cola de los routers en un centro de datos de Facebook en un 99,6 por ciento, prácticamente acabando con ellas.
Cuando el tráfico de la red era alto, la latencia media (el retraso entre la solicitud de una unidad de información y su llegada), disminuyó casi en la misma proporción, de 3,56 microsegundos a 0,23 microsegundos.
Como internet, la mayoría de centros de datos utilizan protocolos de comunicación descentralizados.
Cada nodo en la red decide, basándose en sus propias y limitadas observaciones, cuán rápido enviar datos y a qué nodo adyacente.
Los protocolos descentralizados tienen la ventaja de la habilidad de gestionar comunicaciones sobre grandes redes con escasa vigilancia administrativa.
Apart from external application, you are also advised intake of herbal supplements like Maha Rasayan capsules and No Fall capsules are the best recommended buy viagra 100mg herbal pills to improve vitality and vigor. Wide Range of Medicines Despite being an issue that a large number of cialis canada men face, very few are able to openly acknowledge the presence of this issue. Skinny women are more prone to miscarriages and breast cancer. viagra samples Monte Carlo and Monaco have provided backgrounds and settings for dozens of movies, both those filmed from Hollywood as cialis 100mg canada well as film companies around the world. El sistema del MIT, apodado Fastpass, depende en cambio de un servidor central, el llamado “árbitro”, que decide qué nodos en la red pueden enviar datos a qué otros durante qué períodos de tiempo.
Con Fastpass, un nodo que desea transmitir datos emite primero una solicitud al árbitro y recibe a cambio una asignación de enrutamiento.
Si acudir al árbitro ya consume hasta quizá unos 40 microsegundos, ¿se puede ganar realmente mucho tiempo con todo este método? Sorprendentemente, sí.
Los experimentos de los investigadores indican que un árbitro con ocho núcleos o unidades de procesamiento puede dar abasto a una red que transmita 2,2 terabits de datos por segundo.
Eso es el equivalente a un centro de datos con 2.000 servidores y conexiones de no menos de 1 gigabit por segundo, transmitiendo a plena capacidad todo el tiempo.
Fuente: Noticias de la Ciencia
Científicos han documentado que un orangután macho llamado Rakus utilizó una planta con propiedades medicinales…
Un papiro carbonizado de Herculano ha salido a la luz gracias a la inteligencia artificial…
Passkeys es una excelente alternativa a las contraseñas para mejorar la seguridad de nuestras cuentas.…
Científicos han inventado un material adhesivo que, entre otras cualidades excepcionales, se pega a la…
Los perros son los únicos animales no humanos que pueden desarrollar tumores en el cerebro…
Científicos descubren que las nanopartículas derivadas del salvado de arroz son eficaces y seguras para…