Tendencias21
Un nuevo algoritmo permite a ordenadores normales analizar grandes cantidades de datos

Un nuevo algoritmo permite a ordenadores normales analizar grandes cantidades de datos

Los científicos tienen a su disposición herramientas y dispositivos para recoger, sobre el terreno o en el laboratorio, grandes cantidades de datos. Ahora bien, cuantos más datos, más dificultad para sacar algo claro de ellos, incluso a pesar de los grandes pasos que ha dado la informática. Un nuevo algoritmo ideado por profesores de informática de la Universidad de California en Davis está siendo ya usado para extraer patrones a partir de miles de millones de puntos de datos. Según sus creadores, el algoritmo es tan compacto que incluso puede funcionar en un ordenador portátil convencional. Esto abre la puerta a que el análisis de datos que ahora se hace gracias a los superordenadores pueda hacerse con computadoras normales y corrientes. Por Raúl Morales

Un nuevo algoritmo permite a ordenadores normales analizar grandes cantidades de datos

Ingenieros informáticos de la Universidad de California en Davis (UCD) han desarrollado una potente herramienta que ya está permitiendo a los científicos extraer características y patrones concretos de una enorme cantidad de datos complejos.

El nuevo algoritmo ha sido ideado por miembros del Lawrence Livermore National Laboratory y es lo suficientemente compacto como para que funcione en un ordenador convencional con una memoria de dos gigabytes.

El equipo que ha creado el algoritmo lo ha usado ya para probar una enorme cantidad de fenómenos representados por miles de millones de puntos de datos, incluyendo el análisis y la creación de imágenes de la superficie de una llama. Además, ha sido aplicado para buscar grupos en un experimento de universo virtual, así como para identificar y seguir áreas de fluido en una simulación de mezcla de dos fluidos.

“Lo que hemos desarrollado es un sistema para manejar cualquier dato en cualquier dimensión”, comenta Attila Gyulassy”, que ha liderado esta investigación en los últimos cinco años, en un comunicado. “Esperamos que este algoritmo se convierta en un parte integral de la caja de herramientas de los científicos para dar respuestas sobre datos”.

Los ordenadores son usados habitualmente para llevar a cabo simulaciones de fenómenos del mundo real y para captar resultados de experimentos y observaciones físicas. Además, dichas simulaciones permiten almacenar esta información como colecciones de números.

Ahora bien, al mismo tiempo que el tamaño de estos datos ha crecido (junto a la capacidad de los ordenadores) la dificultad para analizarlos también se ha multiplicado exponencialmente.

40 años de historia

En teoría, desde hace 40 años, existe una herramienta matemática para extraer y visualizar ciertas características de un conjunto de datos. Se llama Morse-Smale, que agrupa grupos de datos por similitudes y los codifica en términos matemáticos. Trabajar con el Morse-Smale no es sencillo. “Es un lenguaje muy potente, pero a costa de que sea muy complicado usarlo en aplicaciones prácticas”, dice Gyulassy.

El algoritmo de Gyulassy divide los conjuntos de datos en parcelas y después analiza cada parcela separadamente usando el sistema Morse-Smale. Los resultados de esos cálculos son posteriormente unidos. Como resultado de esa unión, surgen nuevas parcelas, que vuelven a ser analizadas y unidas de nuevo. En cada uno de esos pasos, los datos que no necesitan ser almacenados son descartados, reduciendo de manera drástica la potencia de computación necesaria para llevar a cabo los cálculos.

Uno de los test hechos para probar este algoritmo consistió en analizar y seguir la formación y el movimiento de áreas de fluidos en una simulación de mezcla de dos fluidos: uno denso y otro ligero. La complejidad de estos datos es enorme (consiste en más de mil millones de puntos de datos en una red tridimensional), incluso para un superordenador. El nuevo algoritmo, sin embargo, ha permitido su análisis en un ordenador portátil convencional con sólo dos gigabytes de memoria.

Aunque Gyulassy tuvo que esperar casi un día para que el ordenador completara los cálculos, al final del proceso pudo obtener imágenes que ilustraban este fenómeno en sólo unos segundos.

Más generación de datos

En la actualidad, son dos los factores que están dirigiendo la necesidad de análisis de grandes conjuntos de datos: por un lado el uso de ordenadores muy potentes que generan muchos datos y, por otro, la mejora de los dispositivos que los investigadores utilizan en el laboratorio para recoger esos datos.

“Los archivos de datos son cada vez más y más grandes, mientras que los científicos tienen cada vez menos tiempo para comprender esos datos”, comenta Bernd Hamann, profesor de informática de la UCD que también ha participado en esta investigación. “Pero, ¿de qué sirven los datos si no tenemos herramientas de computación suficientemente eficientes para buscar en esos datos?

En la actualidad, Gyulassy está desarrollando un software que permitirá a otros usar el nuevo algoritmo. Al ser de código abierto, espera que aumente su nivel de conocimiento.

Los hallazgos de esta investigación fueron publicados en el número de noviembre-diciembre de la revista IEEE Transactions on Visualization and Computer Graphics. Otros autores de ese artículo han sido el profesor de informática Valerio Pascucci, ahora en la Universidad de Utha, y Peer-Timo Bremer, del Lawrence Livermore National Laboratory.

Hacer un comentario

RSS Lo último de Tendencias21

  • Ya es posible transmitir el tacto a través de Internet 26 junio, 2024
    Un nuevo estándar para la compresión y transmisión del sentido del tacto mediante Internet sienta las bases para la telecirugía, la teleconducción y nuevas experiencias de juego en línea, entre otras aplicaciones. El flamante estándar HCTI (Haptic Codecs for the Tactile Internet) es para el “tacto digital” lo que son JPEG, MP3 y MPEG para […]
    Pablo Javier Piacente
  • Las primeras muestras de la cara oculta de la Luna ya están en la Tierra 26 junio, 2024
    La cápsula de reingreso de la sonda Chang'e-6 de China, que transporta hasta dos kilogramos de materiales extraídos y perforados de la cuenca más antigua de la Luna ubicada en su lado oscuro, aterrizó este martes 25 de junio en la región de Mongolia Interior y fue rápidamente recuperada, según informó la Administración Nacional del […]
    Pablo Javier Piacente
  • La Tierra tendrá dos soles dentro de 1,3 millones de años y durante 60.000 años 26 junio, 2024
    Dentro de 1,3 millones de años, la Tierra tendrá una especie de segundo sol porque la estrella Gliese 710 se acercará a 1,1 años luz de la Tierra y la veríamos del mismo tamaño que Júpiter. Lo malo es que esa alteración cósmica puede provocar un episodio en nuestro planeta como el que acabó con […]
    Eduardo Martínez de la Fe
  • China descubre grafeno natural en la Luna 25 junio, 2024
    Investigadores chinos han descubierto recientemente grafeno natural de escasas capas por primera vez en la Luna, a partir de las muestras traídas a la Tierra por la sonda Chang'e 5. El hallazgo proporciona nuevos conocimientos sobre las actividades geológicas, la historia evolutiva y las características ambientales de la Luna.
    Pablo Javier Piacente
  • Los incendios forestales extremos se duplicaron en los últimos 20 años en todo el planeta 25 junio, 2024
    Una nueva investigación concluye que la frecuencia e intensidad de los incendios forestales extremos se ha más que duplicado en todo el mundo en las últimas dos décadas, debido al calentamiento global antropogénico y otros factores relacionados. Se trata de la primera ocasión en la cual los científicos pudieron trazar una tendencia global para los […]
    Pablo Javier Piacente
  • Detectado en el Mediterráneo el neutrino más energético del universo 25 junio, 2024
    El neutrino más potente jamás observado ha dejado su huella en las profundidades del Mediterráneo, aunque todavía se desconoce de qué rincón del universo procede. Los neutrinos cosmogénicos son los mensajeros de algunos de los eventos más cataclísmicos del cosmos.
    Eduardo Martínez de la Fe
  • La IA identifica seis formas diferentes de depresión 24 junio, 2024
    Los científicos han identificado seis formas biológicamente distintas de depresión gracias a la aplicación de la Inteligencia Artificial (IA) en estudios cerebrales. El hallazgo podría explicar por qué algunas personas no responden a los tratamientos tradicionales para la afección, como los antidepresivos y la terapia psicológica.
    Pablo Javier Piacente
  • La NASA pondrá en órbita una estrella artificial que revolucionará el estudio del Universo 24 junio, 2024
    La NASA encarará un ambicioso proyecto para colocar en órbita una estrella artificial: permitirá la calibración de telescopios a niveles previamente inalcanzables. El proyecto tiene como objetivo mejorar significativamente las mediciones de la luminosidad estelar y abordar varios otros desafíos que dificultan la astrofísica moderna.
    Pablo Javier Piacente
  • Los macacos nos enseñan cómo sobrevivir a un desastre natural 24 junio, 2024
    Los macacos de la isla caribeña de Puerto Rico se volvieron más tolerantes y menos agresivos después del huracán María, que los obligó a compartir la sombra de los árboles para sobrevivir al intenso calor.
    Redacción T21
  • Extrañas formas de vida se ocultan en antiguas cuevas de lava de Hawai 23 junio, 2024
    Científicos estadounidenses han logrado identificar una gran diversidad de especies microbianas únicas, que se han desarrollado en cuevas geotérmicas, tubos de lava y fumarolas volcánicas de la isla de Hawái. Estas estructuras subterráneas se formaron hace entre 65 y 800 años y reciben poca o ninguna luz solar, en ambientes similares a los que pueden encontrarse […]
    Pablo Javier Piacente