La idea básica es bien conocida por todos en otros ámbitos. «El pueblo unido, jamás será vencido…» reza el dicho popular. Ejemplos de grandes construcciones, como las pirámides de Egipto, o los rascacielos, o las grandes infraestructuras… Ninguno habría sido posible sin la colaboración de miles de personas. Son impresionantes los gigantescos termiteros que construyen miles de diminutas termitas, incapaces por sí solas de semejante hazaña.
Del mismo modo, diferentes sistemas informáticos pueden colaborar entre sí para conseguir procesar simulaciones muy complejas, mover grandes cantidades de datos, o permitir la distribución de los recursos. La computación en red, o grid computing, puede permitirnos disponer de una potencia de procesamiento y de almacenamiento inmensa. Unos pocos miles de pequeños ordenadores domésticos cooperando eficazmente son más potentes que el más potente superordenador.
Estándar de colaboración en red
Hasta ahora no existía un estándar establecido que permitiera realmente esta colaboración. Se había desarrollado software específico para aplicaciones muy concretas, sólo disponible para quien dispusiera de fondos suficientes. Además, este software era poco eficiente y sólo estaba diseñado para funcionar un rango reducido de máquinas. Generalmente las máquinas del fabricante asociado con la empresa desarrolladora del software en cuestión.
El proyecto GridCOMP, financiado por la Unión Europea, ha desarrollado una colección de software que permite establecer ese estándar. Como dice el coordinador científico del proyecto, Denis Caromel: «… hemos creado una suite de productos de código libre para permitir la computación distribuida, en paralelo y multinúcleo…» Además funciona entre ordenadores que se basan en diferentes arquitecturas y en diferentes infraestructuras, en principio incompatibles.
Computación distribuida, en paralelo y multinúcleo
Este software permite la colaboración eficiente entre pequeños ordenadores personales, servidores, redes de empresas y universidades, y grandes supercomputadores. Todos a la vez, o cualquier combinación de ellos. Incluso permite la colaboración con la computación en la nube, como un proveedor más de potencia de procesamiento y almacenamiento. Todo ello teniendo en cuenta que cada uno utiliza diferentes tecnologías de distintos fabricantes, incompatibles entre sí. Incluso de rivales comerciales directos.
Una de las claves de su funcionamiento es que es capaz de monitorear en tiempo real el rendimiento (QoS) de la red sobre la cual está trabajando. De esa manera permite redistribuir los recursos sin apenas sobrecarga en el sistema. Es como si cada nodo de la red se encargara de mantener el rendimiento de la red de su zona.
El único modo es un estándar libre
Al tratarse de un software libre, al alcance de todos, y desarrollado con unas bases científicas comunes válidas para todos, éste supone un nuevo estándar en el campo de la computación en red a nivel mundial. Un avance de este tipo sería muy complicado si no es desde el código libre, y aún mejor si es con fondos públicos oficiales. Los beneficiarios somos todos.
Una vez que se ha dado el impulso inicial, grandes empresas del sector se han sumado al proyecto, ninguna quiere quedarse atrás. Entre ellas IBM, Sun, Oracle, HP, NEC, Alcatel, Nokia Siemens, etc. Pero ellas han tenido recursos para desarrollarlo durante mucho tiempo y no lo han hecho, porque no les suponía ninguna ventaja en el mercado.
Precisamente por eso este avance tiene tanta importancia. Rompe un bloqueo que la industria tenía sobre el avance científico. Sin las licencias de código abierto, y sin la voluntad política de la Unión Europea de promover este tipo de software, nunca sería posible el amplio abanico de aplicaciones que se abre ante nosotros.
Cualquier red de ordenadores adquiere un potencial muy importante
Ahora será posible la colaboración efectiva entre todas las máquinas disponibles para una comunidad u organización, ya sea una universidad, comunidad científica, una empresa o cualquier otra. Podrán hacerse cálculos y simulaciones que eran muy costosas hasta ahora, y todo ello sin importar en qué esté basada cada máquina o de qué fabricante sea. Esta nueva posibilidad abre la puerta a muchas investigaciones científicas que quedaban estancadas por falta de potencia de cálculo, o por falta de fondos para disponer de esa potencia.
Usando este software, cualquier red de ordenadores se convierte en una herramienta con un potencial muy importante. Eso hará posible la aparición de aplicaciones hasta ahora insospechadas, pero también el desarrollo de otras que llevan tiempo en el tintero. Sin ir más lejos, las instituciones financieras y las operadoras de telecomunicaciones hace mucho que se interesan por este tipo de tecnologías.
Hacer un comentario