Tendencias21
Un nuevo algoritmo permite a ordenadores normales analizar grandes cantidades de datos

Un nuevo algoritmo permite a ordenadores normales analizar grandes cantidades de datos

Los científicos tienen a su disposición herramientas y dispositivos para recoger, sobre el terreno o en el laboratorio, grandes cantidades de datos. Ahora bien, cuantos más datos, más dificultad para sacar algo claro de ellos, incluso a pesar de los grandes pasos que ha dado la informática. Un nuevo algoritmo ideado por profesores de informática de la Universidad de California en Davis está siendo ya usado para extraer patrones a partir de miles de millones de puntos de datos. Según sus creadores, el algoritmo es tan compacto que incluso puede funcionar en un ordenador portátil convencional. Esto abre la puerta a que el análisis de datos que ahora se hace gracias a los superordenadores pueda hacerse con computadoras normales y corrientes. Por Raúl Morales

Un nuevo algoritmo permite a ordenadores normales analizar grandes cantidades de datos

Ingenieros informáticos de la Universidad de California en Davis (UCD) han desarrollado una potente herramienta que ya está permitiendo a los científicos extraer características y patrones concretos de una enorme cantidad de datos complejos.

El nuevo algoritmo ha sido ideado por miembros del Lawrence Livermore National Laboratory y es lo suficientemente compacto como para que funcione en un ordenador convencional con una memoria de dos gigabytes.

El equipo que ha creado el algoritmo lo ha usado ya para probar una enorme cantidad de fenómenos representados por miles de millones de puntos de datos, incluyendo el análisis y la creación de imágenes de la superficie de una llama. Además, ha sido aplicado para buscar grupos en un experimento de universo virtual, así como para identificar y seguir áreas de fluido en una simulación de mezcla de dos fluidos.

“Lo que hemos desarrollado es un sistema para manejar cualquier dato en cualquier dimensión”, comenta Attila Gyulassy”, que ha liderado esta investigación en los últimos cinco años, en un comunicado. “Esperamos que este algoritmo se convierta en un parte integral de la caja de herramientas de los científicos para dar respuestas sobre datos”.

Los ordenadores son usados habitualmente para llevar a cabo simulaciones de fenómenos del mundo real y para captar resultados de experimentos y observaciones físicas. Además, dichas simulaciones permiten almacenar esta información como colecciones de números.

Ahora bien, al mismo tiempo que el tamaño de estos datos ha crecido (junto a la capacidad de los ordenadores) la dificultad para analizarlos también se ha multiplicado exponencialmente.

40 años de historia

En teoría, desde hace 40 años, existe una herramienta matemática para extraer y visualizar ciertas características de un conjunto de datos. Se llama Morse-Smale, que agrupa grupos de datos por similitudes y los codifica en términos matemáticos. Trabajar con el Morse-Smale no es sencillo. “Es un lenguaje muy potente, pero a costa de que sea muy complicado usarlo en aplicaciones prácticas”, dice Gyulassy.

El algoritmo de Gyulassy divide los conjuntos de datos en parcelas y después analiza cada parcela separadamente usando el sistema Morse-Smale. Los resultados de esos cálculos son posteriormente unidos. Como resultado de esa unión, surgen nuevas parcelas, que vuelven a ser analizadas y unidas de nuevo. En cada uno de esos pasos, los datos que no necesitan ser almacenados son descartados, reduciendo de manera drástica la potencia de computación necesaria para llevar a cabo los cálculos.

Uno de los test hechos para probar este algoritmo consistió en analizar y seguir la formación y el movimiento de áreas de fluidos en una simulación de mezcla de dos fluidos: uno denso y otro ligero. La complejidad de estos datos es enorme (consiste en más de mil millones de puntos de datos en una red tridimensional), incluso para un superordenador. El nuevo algoritmo, sin embargo, ha permitido su análisis en un ordenador portátil convencional con sólo dos gigabytes de memoria.

Aunque Gyulassy tuvo que esperar casi un día para que el ordenador completara los cálculos, al final del proceso pudo obtener imágenes que ilustraban este fenómeno en sólo unos segundos.

Más generación de datos

En la actualidad, son dos los factores que están dirigiendo la necesidad de análisis de grandes conjuntos de datos: por un lado el uso de ordenadores muy potentes que generan muchos datos y, por otro, la mejora de los dispositivos que los investigadores utilizan en el laboratorio para recoger esos datos.

“Los archivos de datos son cada vez más y más grandes, mientras que los científicos tienen cada vez menos tiempo para comprender esos datos”, comenta Bernd Hamann, profesor de informática de la UCD que también ha participado en esta investigación. “Pero, ¿de qué sirven los datos si no tenemos herramientas de computación suficientemente eficientes para buscar en esos datos?

En la actualidad, Gyulassy está desarrollando un software que permitirá a otros usar el nuevo algoritmo. Al ser de código abierto, espera que aumente su nivel de conocimiento.

Los hallazgos de esta investigación fueron publicados en el número de noviembre-diciembre de la revista IEEE Transactions on Visualization and Computer Graphics. Otros autores de ese artículo han sido el profesor de informática Valerio Pascucci, ahora en la Universidad de Utha, y Peer-Timo Bremer, del Lawrence Livermore National Laboratory.

Hacer un comentario

RSS Lo último de Tendencias21

  • Revelan el misterio del árbol tropical que camina 13 abril, 2024
    La denominada "palma caminante" o Socratea exorrhiza es un árbol de América Central y del Sur que según distintas versiones podría "caminar" y erguirse en determinadas situaciones: ahora, este mito parece haber sido resuelto bajo criterios científicos. Según los investigadores, aunque el árbol puede crecer rápidamente y crear nuevas raíces para lidiar con la pérdida […]
    Pablo Javier Piacente
  • Descubren 50 especies desconocidas para la ciencia en la exótica Isla de Pascua 12 abril, 2024
    Una expedición a la Cordillera de Salas y Gómez, frente a Rapa Nui, en el Océano Pacífico, documentó 160 especies animales que no se sabía que habitaban esta región de la misteriosa Isla de Pascua, en Chile. Además, descubrieron 50 criaturas que son absolutamente nuevas para la ciencia.
    Pablo Javier Piacente
  • El clima espacial podría generar un caos satelital sin precedentes 12 abril, 2024
    Los satélites en órbita terrestre baja (LEO) pueden perder su brújula cuando el clima espacial ofrece situaciones inesperadas. El problema afecta a la Estación Espacial Internacional, la estación espacial Tiangong de China y muchos satélites de observación de la Tierra. Los expertos sostienen que esta incertidumbre de posicionamiento aumenta el riesgo de colisiones orbitales peligrosas, […]
    Pablo Javier Piacente
  • La Inteligencia Artificial puede ser envenenada para proteger los derechos de autor 12 abril, 2024
    Una herramienta llamada Nightshade cambia imágenes digitales de manera casi imperceptible para el ojo humano, pero que se ven totalmente diferentes por los modelos de IA: una forma polémica de proteger las obras de arte de posibles infracciones de derechos de autor.
    Redacción T21
  • La acidez cerebral podría estar relacionada con múltiples trastornos neurológicos 11 abril, 2024
    Un estudio en animales a gran escala vincula los cambios en el pH del cerebro con problemas cognitivos de amplio alcance, ligados a patologías como el autismo o el Alzheimer, entre otras. Los científicos creen que los problemas metabólicos en el cerebro podrían estar directamente relacionados con una variedad de trastornos neuropsiquiátricos y neurodegenerativos.
    Pablo Javier Piacente
  • Cultivan organoides cerebrales con conexiones neuronales similares a las de un cerebro real 11 abril, 2024
    Un equipo internacional de investigadores ha desarrollado una técnica para conectar tejidos cultivados en laboratorio que imitan al cerebro humano de una manera que se asemeja a los circuitos neuronales del cerebro real. El "sistema" de mini cerebros interconectados podría revolucionar nuestra comprensión de las funciones cerebrales.
    Pablo Javier Piacente
  • Los Estados se exponen a condenas judiciales por inacción climática 11 abril, 2024
    Suiza es el primer Estado condenado judicialmente por no resolver el desafío climático y violar los derechos humanos de las personas mayores. Hace un año, 16 niños y jóvenes obtuvieron una sentencia condenatoria contra el Estado de Montana por destruir con sus leyes el medioambiente. Cualquier Estado puede ser denunciado si no preserva el ambiente en […]
    Eduardo Martínez de la Fe
  • Detectan extraños pulsos de radio procedentes de un magnetar que desconciertan a los científicos 10 abril, 2024
    Los astrónomos han detectado señales de radio inusuales procedentes de XTE J1810-197, un radiomagnetar o estrella de neutrones ultramagnética situada a 8.100 años luz de distancia de la Tierra, en la constelación de Sagitario. Los resultados son inesperados y sin precedentes: a diferencia de las señales de radio que se han detectado en otros magnetares, […]
    Pablo Javier Piacente
  • La IA podría ser el límite para todas las civilizaciones avanzadas en el Universo 10 abril, 2024
    Un nuevo estudio sugiere que el desarrollo de la Inteligencia Artificial (IA) hacia una Superinteligencia Artificial (ASI) podría explicar por qué no hemos detectado aún otras civilizaciones avanzadas en el cosmos, a pesar de la alta probabilidad de su existencia: en vez de supernovas, plagas, guerras nucleares o eventos climáticos extremos que hayan sido un […]
    Pablo Javier Piacente
  • Higgs ha podido dejar abierta la puerta a la Nueva Física con su legado 10 abril, 2024
    La muerte de Peter Higgs, que pasará a la historia como el descubridor del bosón que explica cómo se forma la materia, deja un legado en la historia de la física que todavía puede aportar algo más trascendente: la prueba definitiva de una Nueva Física más allá del Modelo Estándar.
    Eduardo Martínez de la Fe