Tendencias21
Un sistema automático duplica la cantidad de datos que se pueden transmitir por Internet

Un sistema automático duplica la cantidad de datos que se pueden transmitir por Internet

Científicos del MIT (Boston, EE.UU) han diseñado un sistema informático, llamado Remy, que genera de forma automática algoritmos de control de congestión para el protocolo de transmisiones TCP, el más usado en Internet. El sistema duplica la cantidad de datos que se pueden transmitir por las redes y reduce en dos tercios el tiempo que tardan en llegar del emisor al receptor. Por Carlos Gómez Abajo.

Un sistema automático duplica la cantidad de datos que se pueden transmitir por Internet

TCP, Protocolo de Control de Transmisiones, es uno de los protocolos básicos que rigen Internet: Si lo consideramos un programa de ordenador, es el programa más ampliamente utilizado en el mundo.

Una de las principales funciones de TCP (Transmission Control Protocol) es evitar la congestión de la red mediante la regulación de la velocidad a la que los ordenadores envían los datos.

En los últimos 25 años, los ingenieros han hecho constantes mejoras en los algoritmos de control de congestión del TCP, lo que ha dado lugar a varias versiones rivales del protocolo: Muchos equipos con Windows, por ejemplo, ejecutan una versión llamada Compound TCP (TCP Combinado), mientras que las máquinas Linux ejecutan una versión llamada TCP Cubic (TCP Cúbico).

En una conferencia del sector de la computación que se celebrará este verano, investigadores del MIT (Massachussetts Institute of Technology, Boston, EE.UU) presentarán un sistema informático, llamado Remy, que genera automáticamente algoritmos de control de congestión para el TCP. En las simulaciones de los investigadores, los algoritmos elaborados por Remy superaron significativamente a los algoritmos diseñados por ingenieros humanos.

«Creo que la gente puede pensar en lo que ocurre con una o dos conexiones en una red y diseñar en torno a eso», explica en una nota de prensa del MIT Hari Balakrishnan, profesor de Ingeniería Eléctrica y Ciencias de la Computación, y coautor del nuevo estudio junto con el estudiante de doctorado Keith Winstein.

«Cuando se tienen un puñado de conexiones, y una red un poco más complicada, donde la carga de trabajo no es una constante es muy difícil para los seres humanos razonar sobre ello. Y las computadoras parecen saber mucho mejor cómo moverse en ese entorno.»

Topografía del terreno

Remy es un sistema de aprendizaje automático, lo que significa que llega a su resultado después de probar un montón de posibilidades diferentes, y la exploración de nuevas variantes de aquellas que parecen funcionar mejor. Los usuarios especifican ciertas características de la red; por ejemplo, si el ancho de banda a través de los enlaces fluctúa o si el número de usuarios cambia, y en qué medida.

También proporcionan un «perfil de tráfico» que puede describir, por ejemplo, el porcentaje de usuarios que están navegando por páginas web estáticas o están usando aplicaciones de gran ancho de banda, como videoconferencias.

Por último, el usuario especifica los parámetros que se utilizarán para evaluar el rendimiento de la red. Las métricas estándar incluyen el rendimiento, que indica la cantidad total de datos que se pueden mover a través de la red en una cantidad fija de tiempo, y el retardo, que indica la cantidad media de tiempo que tarda un paquete de información en viajar del emisor al receptor. El usuario también puede asignar a estas métricas diferentes pesos; por ejemplo, la reducción de retardo es importante, pero sólo un tercio de importante que aumentar el rendimiento.

Remy necesita probar el rendimiento de cada algoritmo candidato bajo una amplia gama de condiciones de red, lo cual exigiría un tiempo prohibitivo. Pero Winstein y Balakrishnan desarrollaron un algoritmo inteligente que puede concentrar los análisis de Remy en aquellos casos en los que pequeñas variaciones en las condiciones de la red producen grandes variaciones en el rendimiento, mientras que gasta menos tiempo en los casos en los que el comportamiento de la red es más predecible.

150 normas distintas

Además, mientras que un algoritmo de control de congestión TCP típico puede consistir en un puñado de reglas -«si el porcentaje de paquetes perdidos supera un límite, reducir la tasa de transmisión a la mitad»- los algoritmos que Remy produce pueden tener más de 150 normas distintas.

«No se parece a nada en los 30 años de historia de TCP», afirma Winstein. «Tradicionalmente, los TCP tienen reglas relativamente simples pero un comportamiento complejo cuando se utilizan en la práctica. Con Remy ocurre lo contrario. Pensamos que es mejor, porque los ordenadores son buenos para hacer frente a la complejidad. Es el comportamiento lo que se quiere que sea simple. «Por qué funcionan tan bien los algoritmos Remy es una de las cuestiones que los investigadores esperan explorar en el futuro.

En el ínterin, sin embargo, no hay mucho que discutir sobre los resultados. En pruebas que simulaban una red por cable de alta velocidad, los algoritmos de Remy duplicaron el rendimiento de la red, en comparación con TCP Compound y TCP Cubic, mientras que redujeorn el retardo en dos tercios.

En otra serie de pruebas, que simulaban una red de telefonía móvil, las ganancias eran más pequeños pero aún significativas: una mejora del 20 al 30 por ciento en el rendimiento, y una reducción del 25 al 40 por ciento en el retraso.

Las características de TCP

El TCP fue creado entre los años 1973 y 1974 por Vint Cerf y Robert Kahn. El protocolo garantiza que los datos serán entregados en su destino sin errores y en el mismo orden en que se transmitieron. También proporciona un mecanismo para distinguir distintas aplicaciones dentro de una misma máquina, a través del concepto de puerto. TCP da soporte a muchas de las aplicaciones más populares de Internet (navegadores, intercambio de ficheros, clientes FTP, etc.) y protocolos de aplicación HTTP, SMTP, SSH y FTP.

El otro gran protocolo de Internet es UDP, User Datagram Protocol (Protocolo Datagrama-Usuario). Permite el envío de datagramas a través de la red sin que se haya establecido previamente una conexión, ya que el propio datagrama incorpora suficiente información de direccionamiento en su cabecera.

Tampoco tiene confirmación ni control de flujo, por lo que los paquetes pueden adelantarse unos a otros; y tampoco se sabe si ha llegado correctamente, ya que no hay confirmación de entrega o recepción. Su uso principal es para protocolos como DHCP, BOOTP, DNS y demás protocolos en los que el intercambio de paquetes de la conexión/desconexión son mayores, o no son rentables con respecto a la información transmitida, así como para la transmisión de audio y vídeo en tiempo real, donde no es posible realizar retransmisiones por los estrictos requisitos de retardo que se tiene en estos casos.

Referencia bibliográfica:

Keith Winstein y Hari Balakrishnan. TCP ex Machina: Computer-Generated Congestion Control. MIT.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Descubren 50 especies desconocidas para la ciencia en la exótica Isla de Pascua 12 abril, 2024
    Una expedición a la Cordillera de Salas y Gómez, frente a Rapa Nui, en el Océano Pacífico, documentó 160 especies animales que no se sabía que habitaban esta región de la misteriosa Isla de Pascua, en Chile. Además, descubrieron 50 criaturas que son absolutamente nuevas para la ciencia.
    Pablo Javier Piacente
  • El clima espacial podría generar un caos satelital sin precedentes 12 abril, 2024
    Los satélites en órbita terrestre baja (LEO) pueden perder su brújula cuando el clima espacial ofrece situaciones inesperadas. El problema afecta a la Estación Espacial Internacional, la estación espacial Tiangong de China y muchos satélites de observación de la Tierra. Los expertos sostienen que esta incertidumbre de posicionamiento aumenta el riesgo de colisiones orbitales peligrosas, […]
    Pablo Javier Piacente
  • La Inteligencia Artificial puede ser envenenada para proteger los derechos de autor 12 abril, 2024
    Una herramienta llamada Nightshade cambia imágenes digitales de manera casi imperceptible para el ojo humano, pero que se ven totalmente diferentes por los modelos de IA: una forma polémica de proteger las obras de arte de posibles infracciones de derechos de autor.
    Redacción T21
  • La acidez cerebral podría estar relacionada con múltiples trastornos neurológicos 11 abril, 2024
    Un estudio en animales a gran escala vincula los cambios en el pH del cerebro con problemas cognitivos de amplio alcance, ligados a patologías como el autismo o el Alzheimer, entre otras. Los científicos creen que los problemas metabólicos en el cerebro podrían estar directamente relacionados con una variedad de trastornos neuropsiquiátricos y neurodegenerativos.
    Pablo Javier Piacente
  • Cultivan organoides cerebrales con conexiones neuronales similares a las de un cerebro real 11 abril, 2024
    Un equipo internacional de investigadores ha desarrollado una técnica para conectar tejidos cultivados en laboratorio que imitan al cerebro humano de una manera que se asemeja a los circuitos neuronales del cerebro real. El "sistema" de mini cerebros interconectados podría revolucionar nuestra comprensión de las funciones cerebrales.
    Pablo Javier Piacente
  • Los Estados se exponen a condenas judiciales por inacción climática 11 abril, 2024
    Suiza es el primer Estado condenado judicialmente por no resolver el desafío climático y violar los derechos humanos de las personas mayores. Hace un año, 16 niños y jóvenes obtuvieron una sentencia condenatoria contra el Estado de Montana por destruir con sus leyes el medioambiente. Cualquier Estado puede ser denunciado si no preserva el ambiente en […]
    Eduardo Martínez de la Fe
  • Detectan extraños pulsos de radio procedentes de un magnetar que desconciertan a los científicos 10 abril, 2024
    Los astrónomos han detectado señales de radio inusuales procedentes de XTE J1810-197, un radiomagnetar o estrella de neutrones ultramagnética situada a 8.100 años luz de distancia de la Tierra, en la constelación de Sagitario. Los resultados son inesperados y sin precedentes: a diferencia de las señales de radio que se han detectado en otros magnetares, […]
    Pablo Javier Piacente
  • La IA podría ser el límite para todas las civilizaciones avanzadas en el Universo 10 abril, 2024
    Un nuevo estudio sugiere que el desarrollo de la Inteligencia Artificial (IA) hacia una Superinteligencia Artificial (ASI) podría explicar por qué no hemos detectado aún otras civilizaciones avanzadas en el cosmos, a pesar de la alta probabilidad de su existencia: en vez de supernovas, plagas, guerras nucleares o eventos climáticos extremos que hayan sido un […]
    Pablo Javier Piacente
  • Higgs ha podido dejar abierta la puerta a la Nueva Física con su legado 10 abril, 2024
    La muerte de Peter Higgs, que pasará a la historia como el descubridor del bosón que explica cómo se forma la materia, deja un legado en la historia de la física que todavía puede aportar algo más trascendente: la prueba definitiva de una Nueva Física más allá del Modelo Estándar.
    Eduardo Martínez de la Fe
  • Descubren neuronas "zombis" en el cerebro, que serían claves en el proceso de aprendizaje 9 abril, 2024
    Las neuronas "zombis" son unidades vivas pero funcionalmente alteradas, que parecen "dormidas" en determinadas situaciones: los investigadores han revelado que cumplen un papel fundamental en el cerebelo, concretamente en aspectos relativos a la forma en la cual aprendemos.
    Pablo Javier Piacente