Tendencias21

El big data y la nube unen sus fuerzas para revolucionar la sociedad

Un proyecto de la Comunidad de Madrid y otro de la National Science Foundation estadounidense pretenden combinar la computación en la nube con el procesamiento de ‘big data’ para revolucionar la informática, la práctica empresarial, la educación… y la mayoría de las áreas del conocimiento en las que uno pueda pensar. Por Carlos Gómez Abajo.

El big data y la nube unen sus fuerzas para revolucionar la sociedad

Dos iniciativas TIC están copando los titulares sobre tecnología en los últimos tiempos, con la promesa de revolucionar la informática, la práctica empresarial, la educación y la mayoría de las áreas del conocimiento en las que uno pueda pensar.

Por un lado, explica en su web Imdea Networks Institute, instituto de investigación de la Comunidad de Madrid, los datos masivos o datos a gran escala (Big Data) son un paradigma emergente para la gestión de cantidades ingentes de información más allá de las capacidades de la tecnología que soporta las bases de datos tradicionales.

Por otro lado, la computación en la nube (Cloud Computing) surge como paradigma en los sistemas de computación distribuida, cuya meta es ofrecer el software como un servicio a través de Internet. La computación en la nube ofrece un modelo de entrega ágil y una infraestructura altamente escalable para soportar las demandas de almacenamiento y cómputo de las tecnologías de grandes datos.

Ambas tecnologías convergen para ofrecer un inmenso surtido de datos que explorar y de los que obtener análisis significativos, así como una creciente gama de servicios y recursos con aplicaciones en cualquier campo que se vea afectado por la innovación y el desarrollo de las TIC.

Tanto el cloud computing como el Big Data maduran rápidamente y su uso se está generalizando, pero se necesita, explica Imdea, un esfuerzo decidido para crear un entorno holístico en el que ambos puedan prosperar y desarrollar todo su potencial. El ambicioso objetivo científico del proyecto Cloud4BigData – puesto en marcha recientemente por Imdea, la Universidad Politécnica de Madrid y la Universidad Rey Juan Carlos – es facilitar la convergencia de las tecnologías Big Data con su infraestructura cloud subyacente, para lograr altos niveles de eficiencia, flexibilidad, escalabilidad, alta disponibilidad, calidad de servicio, facilidad de uso, seguridad y privacidad.

Combinación

Cloud4BigData abordará sin ambages los actuales inconvenientes y deficiencias del Big Data y del Cloud Computing, sacando partido también de sus fortalezas. Desde la gestión segura al procesamiento eficiente de los datos, el proyecto tiene como objetivo combinar e integrar tecnologías diferenciadas y especializadas en una sola plataforma unificada.

El proyecto también demostrará su competencia en áreas de aplicación emergente con requisitos muy exigentes que demandan tecnologías cloud y Big Data, tales como las tecnologías máquina a máquina (machine-to-machine), el Internet de las cosas (IoT – Internet of Things), las tecnologías inteligentes o smart (como la red eléctrica inteligente, Smart Grid; las ciudades inteligentes, Smart cities; el transporte inteligente, Smart transport; etc.), así como en áreas tradicionales de aplicación, tales como la banca, la telefonía, la comunicación multimedia, las simulaciones distribuidas, etc., que demandan funcionalidades más allá de las capacidades actuales de las tecnologías Big Data.

Cloud4BigData está financiado por la Comunidad de Madrid, a través del Programa de Actividades de I+D entre grupos de investigación en Tecnologías 2013, cofinanciado con Fondos Estructurales de la Unión Europea. Comenzó el pasado octubre del 2014 y concluirá en septiembre de 2018.

‘Big data’ y ciencia

Otro proyecto de big data, SciServer, apoyado por la National Science Foundation (NSF) estadounidense, tiene como objetivo construir un ecosistema flexible y a largo plazo que proporcione a los científicos acceso a los enormes conjuntos de datos de observaciones y simulaciones.

Alex Szalay, de la Universidad Johns Hopkins, es el investigador principal del proyecto, de cinco años previstos de duración, y el arquitecto del Archivo Científico del Sloan Digital Sky Survey (SDSS), un proyecto que pretende cartografiar el universo entero. De éste último es de donde surgió la idea SciServer, explica Szalay.

«Cuando el SDSS se inició en 1998, los astrónomos tenían datos de menos de 200.000 galaxias», explica Ani Thakar, astrónomo de la Universidad Johns Hopkins, que es parte del equipo SciServer. «Cinco años después de comenzar SDSS, teníamos cerca de 200 millones de galaxias en nuestra base de datos. Hoy en día, los datos de SDSS supera los 70 terabytes, que cubren más de 220 millones de galaxias y 260 millones de estrellas.»

El equipo de la Johns Hopkins creó varias herramientas en línea para acceder a los datos de SDSS. Por ejemplo, en el sitio SkyServer, cualquier persona puede navegar a través del cielo, obtener información detallada acerca de las estrellas o buscar objetos utilizando múltiples criterios. El sitio también incluye actividades educativas listas para hacer en clase que permiten a los estudiantes aprender ciencia a partir de datos de última generación.

Para análisis más avanzados, crearon Casjobs, donde se pueden ejecutar consultas de hasta ocho horas y almacenar los resultados en una base de datos personal. Con cada nueva herramienta, la comunidad de usuarios creció, lo que llevó a realizar nuevos descubrimientos científicos.

Problemas

Sin embargo, para que todos estos datos sean analizables hace falta que los formatos, los metadatos y el acceso a los mismos tenga cierto mantenimiento, algo que se complica cuando los investigadores se van retirando y los formatos se quedan obsoletos. El equipo SciServer ha pasado las últimas dos décadas abordando estos problemas, primero en astronomía y luego en otras áreas de la ciencia.

Liderados por Szalay, el equipo comenzó a trabajar en SciServer en 2013 con financiación de la NSF. Previsto para ser lanzado al mercado en varias etapas durante los próximos cuatro años, SciServer ofrecerá importantes beneficios a la comunidad científica mediante la ampliación de la infraestructura desarrollada para los datos de SDSS a muchas otras áreas de la ciencia.

«Nuestro enfoque en el diseño de SciServer es llevar el análisis a los datos. Esto significa que los científicos puedan buscar y analizar grandes volúmenes de datos sin necesidad de descargar terabytes de datos, lo que resulta en tiempos de procesamiento mucho más rápidos», explica Szalay en la nota de prensa de la NSF. «Eso también hace que sea mucho más fácil comparar y combinar conjuntos de datos, permitiendo a los investigadores descubrir nuevas y sorprendentes conexiones entre ellos.»

Szalay y su equipo están trabajando en estrecha colaboración con colegas investigadores para concretar casos de uso en el mundo real para asegurarse de que el sistema sea lo más útil posible para los científicos sobre el terreno. De hecho, ya se han logrado avances significativos en dos campos: la ecología del suelo y la dinámica de fluidos.

Para ayudar a aliviar la carga de los investigadores, el equipo desarrolló SciDrive, un sistema de almacenamiento de datos en la nube para datos científicos que permite a los científicos subir y compartir datos utilizando una interfaz similar a Dropbox. La interfaz lee automáticamente los datos en una base de datos, y uno puede buscar en línea y hacer una correlación cruzada con otras fuentes de datos.

Ciencia ciudadana

SciServer ampliará esta capacidad a un nuevo proyecto de ciencia ciudadana llamada Gluseen (Red Global Urbana Educacional y Ecológica sobre el Suelo), cuyo objetivo es recopilar datos en todo el mundo sobre la ecología del suelo en una variedad de condiciones climáticas. «Nuestro enfoque será útil para muchas otras áreas de la ciencia, donde los conjuntos de datos gestionados por investigadores individuales deberán combinarse con grandes conjuntos de datos disponibles para el público», explica Szalay.

SciServer también tiene una importante iniciativa en marcha para desarrollar un «laboratorio numérico abierto» para el acceso y procesamiento de grandes bases de datos de simulación. En colaboración con el grupo de Simulación de Turbulencias en de Universidad Johns Hopkins, están desarrollando un sistema piloto para integrar conjuntos de datos y procesos de trabajo de de simulación de turbulencias en SciServer.

En el futuro, el proyecto se extenderá a la genómica – donde los investigadores deben correlacionar de forma cruzada petabytes de datos para entender genomas enteros – y la conectómica – la exploración de las conexiones celulares a través de toda la estructura del cerebro-. Estas colaboraciones se extenderán por un período de cinco años, hasta 2018.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Ya es posible transmitir el tacto a través de Internet 26 junio, 2024
    Un nuevo estándar para la compresión y transmisión del sentido del tacto mediante Internet sienta las bases para la telecirugía, la teleconducción y nuevas experiencias de juego en línea, entre otras aplicaciones. El flamante estándar HCTI (Haptic Codecs for the Tactile Internet) es para el “tacto digital” lo que son JPEG, MP3 y MPEG para […]
    Pablo Javier Piacente
  • Las primeras muestras de la cara oculta de la Luna ya están en la Tierra 26 junio, 2024
    La cápsula de reingreso de la sonda Chang'e-6 de China, que transporta hasta dos kilogramos de materiales extraídos y perforados de la cuenca más antigua de la Luna ubicada en su lado oscuro, aterrizó este martes 25 de junio en la región de Mongolia Interior y fue rápidamente recuperada, según informó la Administración Nacional del […]
    Pablo Javier Piacente
  • La Tierra tendrá dos soles dentro de 1,3 millones de años y durante 60.000 años 26 junio, 2024
    Dentro de 1,3 millones de años, la Tierra tendrá una especie de segundo sol porque la estrella Gliese 710 se acercará a 1,1 años luz de la Tierra y la veríamos del mismo tamaño que Júpiter. Lo malo es que esa alteración cósmica puede provocar un episodio en nuestro planeta como el que acabó con […]
    Eduardo Martínez de la Fe
  • China descubre grafeno natural en la Luna 25 junio, 2024
    Investigadores chinos han descubierto recientemente grafeno natural de escasas capas por primera vez en la Luna, a partir de las muestras traídas a la Tierra por la sonda Chang'e 5. El hallazgo proporciona nuevos conocimientos sobre las actividades geológicas, la historia evolutiva y las características ambientales de la Luna.
    Pablo Javier Piacente
  • Los incendios forestales extremos se duplicaron en los últimos 20 años en todo el planeta 25 junio, 2024
    Una nueva investigación concluye que la frecuencia e intensidad de los incendios forestales extremos se ha más que duplicado en todo el mundo en las últimas dos décadas, debido al calentamiento global antropogénico y otros factores relacionados. Se trata de la primera ocasión en la cual los científicos pudieron trazar una tendencia global para los […]
    Pablo Javier Piacente
  • Detectado en el Mediterráneo el neutrino más energético del universo 25 junio, 2024
    El neutrino más potente jamás observado ha dejado su huella en las profundidades del Mediterráneo, aunque todavía se desconoce de qué rincón del universo procede. Los neutrinos cosmogénicos son los mensajeros de algunos de los eventos más cataclísmicos del cosmos.
    Eduardo Martínez de la Fe
  • La IA identifica seis formas diferentes de depresión 24 junio, 2024
    Los científicos han identificado seis formas biológicamente distintas de depresión gracias a la aplicación de la Inteligencia Artificial (IA) en estudios cerebrales. El hallazgo podría explicar por qué algunas personas no responden a los tratamientos tradicionales para la afección, como los antidepresivos y la terapia psicológica.
    Pablo Javier Piacente
  • La NASA pondrá en órbita una estrella artificial que revolucionará el estudio del Universo 24 junio, 2024
    La NASA encarará un ambicioso proyecto para colocar en órbita una estrella artificial: permitirá la calibración de telescopios a niveles previamente inalcanzables. El proyecto tiene como objetivo mejorar significativamente las mediciones de la luminosidad estelar y abordar varios otros desafíos que dificultan la astrofísica moderna.
    Pablo Javier Piacente
  • Los macacos nos enseñan cómo sobrevivir a un desastre natural 24 junio, 2024
    Los macacos de la isla caribeña de Puerto Rico se volvieron más tolerantes y menos agresivos después del huracán María, que los obligó a compartir la sombra de los árboles para sobrevivir al intenso calor.
    Redacción T21
  • Extrañas formas de vida se ocultan en antiguas cuevas de lava de Hawai 23 junio, 2024
    Científicos estadounidenses han logrado identificar una gran diversidad de especies microbianas únicas, que se han desarrollado en cuevas geotérmicas, tubos de lava y fumarolas volcánicas de la isla de Hawái. Estas estructuras subterráneas se formaron hace entre 65 y 800 años y reciben poca o ninguna luz solar, en ambientes similares a los que pueden encontrarse […]
    Pablo Javier Piacente