Tendencias21
Una nueva tecnología hace visible lo invisible

Una nueva tecnología hace visible lo invisible

Una nueva tecnología permite acceder de forma simple al mundo de lo invisible que está más allá del límite de la difracción de la luz, con aplicaciones biomédicas y de bioingeniería.

Una nueva técnica de imágenes acústicas utiliza un conjunto desordenado de esferas de plástico para amplificar ondas de sonido cortas: combinadas con Inteligencia Artificial, reducen la complejidad y la potencia computacional necesaria para obtener imágenes de alta resolución de objetos que están más allá del límite de la difracción de la luz.

Lo ha conseguido un equipo de investigadores de la Escuela Politécnica Federal (EPFL) de Zúrich liderado por Romain Fleury: acopló metamateriales y redes neuronales y demostró que el sonido se puede utilizar para obtener imágenes precisas del mundo invisible. Los resultados se publican en la revista Physical Review X.

La formación de imágenes permite representar un objeto analizando de forma remota las ondas, ya sean de luz o sonido, que emite el objeto que se quiere representar. Esta técnica tiene una limitación: la precisión de la imagen así obtenida depende de la longitud de la onda.

Precisión sorprendente

Esta limitación impuesta por la longitud de onda se puede superar mediante algunos recursos técnicos, que suponen un costo considerable en términos económicos y computacionales.

Los investigadores suizos han conseguido una técnica más simple: captura detalles muy pequeños de la longitud de onda y alcanza una precisión inédita de la imagen de lo “invisible”.

La precisión alcanzada por este sistema es sorprendente: una onda larga de sonido, y por tanto no muy clara, puede dibujar detalles hasta 30 veces más pequeños que su longitud de onda.

El material que permite esta proeza tecnológica es un material artificial creado desde cero con la ayuda de la Inteligencia Artificial (IA). Este metamaterial, cuando adopta la forma deseada, es capaz de enfocar con precisión las ondas que emite.

La segunda parte de esta proeza es haber introducido en el proceso un sistema de redes neuronales artificiales capaces de decodificar de forma rápida y eficiente la información escondida en la onda que emite el metamaterial.

Viendo lo invisible

 En esta investigación, el equipo de Romain Fleury fue más allá del límite de difracción de la luz: impide que se puedan distinguir dos estructuras independientes que están separadas menos de 200 nanómetros (un nanómetro equivale a la milmillonésima parte del metro).

Más allá de ese límite está el reino físico de lo invisible, de los eventos que rigen la vida de las células y nuestra propia vida, y que no podemos ver porque están a escala infinitesimal.

Los investigadores han usado un truco inteligente para bordear esta limitación de la microscopía óptica: colocaron un panel compuesto por 64 mini altavoces que se activan según los píxeles de una imagen.

Este panel forma una fuente de sonido con detalles espaciales muy finos, que reproducen imágenes de dígitos del 0 al 9, extraídas de una base de datos de unas 70.000 versiones manuscritas de los dígitos.

Frente al panel hay una bolsa que contiene 39 resonadores de Helmholtz, absorbentes acústicos artificiales que eliminan o absorben un estrecho margen de frecuencias.

Los resonadores son esferas perforadas de 10 centímetros de diámetro que forman el metamaterial. El sonido emitido por la fuente es devuelto por esta estructura y recibido por cuatro micrófonos colocados a pocos metros de distancia.

Dos algoritmos diferentes de aprendizaje automático utilizaron los datos obtenidos por los micrófonos, aún sin procesar, para aprender, explica la revista Physics: uno reconstruyó el patrón con la mayor precisión posible y el otro lo clasificó como uno de los diez dígitos. Los algoritmos se entrenaron primero en un conjunto de señales conocidas y luego se probaron con nuevas señales que no se encontraron en el conjunto de entrenamiento.

 Límite superado

La tasa de éxito ronda el 90%: “al reconstruir imágenes de figuras con una resolución de unos pocos centímetros, mientras la longitud de onda del sonido es del orden de un metro, hemos superado ampliamente el límite de difracción”, resume Romain Fleury en un comunicado.

Y añade: “además, la propensión a la absorción, que se consideraba un gran inconveniente de los metamateriales, resulta ser un activo cuando se utilizan redes neuronales: hemos descubierto que funcionan mejor cuando hay mucha absorción.»

Esta experiencia abre perspectivas interesantes, particularmente en los campos de la imagenología médica y la bioingeniería: para las imágenes médicas, poder usar ondas largas para ver cosas muy pequeñas es un gran avance, destacan los investigadores.

Las ondas largas permiten el uso de frecuencias mucho más bajas, lo que permite que las técnicas de imágenes acústicas funcionen incluso a través del tejido óseo opaco, o en el caso de imágenes que utilizan ondas electromagnéticas, son menos perjudiciales para la salud, dice el investigador. En este caso, las redes neuronales no aprenderían a reconocer o visualizar números, sino estructuras biológicas, concluye.

Referencia

Far-Field Subwavelength Acoustic Imaging by Deep Learning. Bakhtiyar Orazbayev and Romain Fleury. Phys. Rev. X 10, 031029, 7 August 2020.DOI: 10.1103 / PhysRevX.10.031029

 

 

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Descubren una firme y alarmante relación entre las bebidas azucaradas y el cáncer 25 marzo, 2025
    Un nuevo estudio ha hallado un vínculo alarmante entre las bebidas azucaradas y el cáncer oral: los científicos de la Universidad de Washington descubrieron que las mujeres que beben al menos un refresco azucarado por día parecen tener aproximadamente cinco veces más probabilidades de contraer cáncer de cavidad oral (OCC) que las mujeres que evitan […]
    Pablo Javier Piacente / T21
  • Elon Musk y Neuralink ya están patentando una aplicación de "telepatía" 25 marzo, 2025
    En los últimos meses, Elon Musk y su equipo en Neuralink se han referido a las capacidades del chip de interfaz cerebral de la compañía, The Link, como “Telepatía”. Neuralink incluso ha presentado una solicitud de marca comercial ante los organismos oficiales estadounidenses para reservar los nombres “Telepatía” y “Telekinesis”. ¿Ya tiene Neuralink el secreto […]
    Pablo Javier Piacente / T21
  • Desarrollan la pantalla LED más pequeña del mundo: tiene el tamaño de un virus 25 marzo, 2025
    Investigadores de la Universidad de Zhejiang en Hangzhou, China, en colaboración con la Universidad de Cambridge, han creado una pantalla LED con píxeles que miden solo 90 nanómetros de ancho, un tamaño comparable al de los virus típicos. 
    Redacción T21
  • La revolución de la inteligencia artificial: ¿la era del fin del trabajo humano? 25 marzo, 2025
    La IA ha cruzado un umbral crítico: pronto podríamos ver sistemas autónomos capaces de realizar tareas humanas complejas, de semanas de duración, realizadas en apenas horas, cambiando para siempre el mercado laboral y la sociedad.
    Redacción T21
  • ¿Por qué no recordamos nada de cuando éramos bebés? 25 marzo, 2025
    El enigma de la memoria infantil parece comenzar a resolverse: una nueva investigación muestra que los bebés pueden codificar recuerdos específicos, sugiriendo que la “amnesia infantil” que nos impide recordar la etapa más temprana de la vida podría ser un problema de recuperación de memoria.
    Redacción T21
  • Todos los robots en todas partes: la era de la robótica generalista ha llegado 25 marzo, 2025
    Nos dirigimos a pasos acelerados a un mundo en el que conviviremos y seremos asistidos por robots humanoides E-AGI, que se ocuparán de muchas de las tareas de trabajadores humanos. Será un reto para nuestro actual sistema legislativo, policial y jurídico.
    Alejandro Sacristán
  • Los humanos modernos provienen de una combinación de linajes genéticos 24 marzo, 2025
    Una nueva investigación muestra que nuestros orígenes evolutivos son más complejos de lo pensado y no provienen de un único linaje, involucrando diferentes grupos que se desarrollaron por separado durante más de un millón de años, y luego se combinaron para formar la especie humana moderna.
    Pablo Javier Piacente / T21
  • Describen cómo el uso de ChatGPT afecta el bienestar emocional de las personas 24 marzo, 2025
    Dos nuevos estudios de OpenAI nos permiten tener una mejor idea de cómo los chatbots nos están afectando, aunque todavía hay mucho que no sabemos: los investigadores confirmaron que solo un pequeño subconjunto de usuarios interactúa emocionalmente con ChatGPT. También hallaron diferencias en el impacto que genera en cada persona, identificando dependencia emocional y cierta […]
    Pablo Javier Piacente / T21
  • La Universidad de Columbia acata la injerencia de Trump para no perder fondos federales 24 marzo, 2025
    La Universidad de Columbia ha aceptado injerencias políticas en el diseño de contenidos académicos y cercenar la libertad de manifestación en el campus, todo ello para no perder fondos federales. Medio centenar de universidades de Estados Unidos están también amenazadas de intervención.
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Un truco mental reduce realmente el dolor 24 marzo, 2025
    Un estudio ha demostrado que la conocida “ilusión de la mano de goma” puede reducir significativamente la percepción del dolor. Los investigadores sugieren que la ilusión sobre una extremidad artificial puede alterar la percepción del dolor en tiempo real, proporcionando implicaciones potenciales para nuevas terapias.
    Redacción T21