Tendencias21
Crean un sistema de reconocimiento de objetos que imita al cerebro

Crean un sistema de reconocimiento de objetos que imita al cerebro

Científicos norteamericanos han desarrollado un sistema de reconocimiento de objetos que realiza el mismo tipo de procesamiento visual que se produce en el cerebro. El sistema utiliza un modelo jerárquico para compartir la información común de imágenes diferentes. De esta forma, consigue su objetivo de forma sencilla y eficaz e incluso ahorra espacio de memoria informática.

Crean un sistema de reconocimiento de objetos que imita al cerebro

Al tratar de discernir un determinado tipo de objeto en una imagen digital, los sistemas de reconocimiento de objetos convencionales comienzan examinando los elementos destacados del mismo. Un sistema creado para identificar caras, por ejemplo, puede buscar los elementos que parecen ojos, nariz y boca, para después determinar si se ajustan a las normas espaciales establecidas. Pero para ello es imprescindible contar con la intuición humana.

El informático debe decidir qué partes del todo son las más adecuadas para introducirlas en el programa. Eso significa que por cada nuevo objeto añadido al repertorio del sistema, el programador tiene que empezar desde cero para determinar qué partes del objeto son las más importantes.

Algo que resultaría prácticamente inviable ante sistemas diseñados para reconocer millones de tipos de objetos complejos y diferentes. Cada uno de ellos tendría su propio conjunto único de partes, pero éstas se verían diferentes desde distintas perspectivas y su catalogación ocuparía una enorme cantidad de memoria del ordenador.

Para resolver el problema un equipo de investigación de Ciencias de la Computación e Inteligencia Artificial del MIT (Instituto Tecnológico de Massachusetts), en colaboración con científicos de la UCLA (Universidad de California en Los Ángeles), ha creado un nuevo método de reconocimiento de objetos basado en un sistema de interpretación visual por categorías, según un comunicado del MIT.

Un enfoque jerárquico

Como la mayoría de los sistemas de reconocimiento de objetos, el nuevo modelo aprende a identificar datos gráficos nuevos mediante un entrenamiento con objetos ya etiquetados en imágenes digitales. Sin embargo, los modelos convencionales no tienen por qué saber de antemano qué características de los objetos deben buscar.

En el método diseñado por el MIT, lo primero es identificar los rasgos más pequeños posibles (a menudo segmentos cortos de líneas). El siguiente paso es localizar los casos en que estas características de bajo nivel están conectadas entre sí, formando figuras un poco más sofisticadas.

A continuación, busca dónde estas formas más elaboradas están conectadas las unas con las otras, y así sucesivamente, hasta que configura un catálogo jerárquico de las piezas cada vez más complejo, cuya capa superior es un modelo del objeto completo. Una vez que el sistema ha reunido su catálogo de abajo hacia arriba, lo hace en sentido inverso, de arriba hacia abajo, eliminando todas las redundancias.

Para visualizar cómo funciona el sistema, los científicos ilustran su comunicado con el siguiente ejemplo: en un catálogo de piezas para un caballo visto de perfil, la segunda capa de la parte superior podría incluir dos representaciones diferentes de la parte trasera del caballo. Una mostraría la grupa, una pata trasera y parte del vientre, y la otra la rabadilla y las dos piernas traseras. Así, podría resultar que en la gran mayoría de los casos en que el sistema identifica una de estas partes, acabe reconociendo también la otra.

Con este enfoque jerárquico, que va añadiendo nuevas capas de información acerca de los objetos representados digitalmente, se consigue ahorrar memoria, ya que los objetos diferentes pueden compartir varias partes. Es decir, en capas diferentes, los catálogos de piezas de un caballo y un ciervo pueden llegar a tener formas en común. De este modo, cuando una forma se comparte entre dos o varios catálogos, el sistema solo necesita almacenarla una vez.

Lejos de la eficacia del cerebro

Aunque el trabajo de los investigadores promete un uso más eficiente de la memoria del ordenador y el tiempo empleado por los programadores, para Tai Sing Lee, profesor asociado de Ciencias de la computación en la Universidad Carnegie Mellon, lo más importante es que crea una forma más eficaz de llevar a cabo el reconocimiento de objetos.

En su opinión, el funcionamiento de este sistema tiene mucho que ver con la forma en que nuestro cerebro asimila las imágenes. Lee señala que el procesamiento visual en el ser humano parece implicar entre cinco y siete regiones cerebrales distintas, sin embargo nadie está completamente seguro de lo que hacen. “Lo que me aturdió es que el sistema aprende desde cinco hasta siete capas”, confiesa Lee. “Eso –añade- sugiere que puede realizar el mismo tipo de procesamiento visual que se produce en el cerebro”.

Sin embargo, aunque en los ensayos el método del MIT y la UCLA obtuvo buenos resultados está todavía muy lejos de acercarse al cerebro humano. Y es que, según Lee, el sistema en la actualidad se centra principalmente en la detección de los bordes de los objetos en las representaciones bidimensionales y para alcanzar el rendimiento humano, tendría que incorporar una gran cantidad de información adicional acerca de texturas y contornos en tres dimensiones, como lo hace el cerebro.

El equipo de investigación presentará su proyecto en una conferencia sobre visión por ordenador y reconocimiento de patrones que se celebrará el próximo mes de junio en San Francisco.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • La NASA está observando una enorme y creciente anomalía en el campo magnético de la Tierra 31 mayo, 2025
    La NASA está haciendo un seguimiento detallado de la "abolladura" o "bache" en el campo magnético terrestre descubierta en 1961, que crece rápidamente y podría ser el preludio de una inversión geomagnética: ocurre cuando los polos magnéticos norte y sur intercambian posiciones.
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Los árboles pueden predecir las erupciones volcánicas 30 mayo, 2025
    La NASA, en colaboración con el Instituto Smithsonian, en Estados Unidos, está desarrollando nuevos métodos para anticipar erupciones volcánicas. Cuando el magma asciende a la superficie libera dióxido de carbono, y los árboles cercanos que absorben ese gas se vuelven más verdes y frondosos. Satélites como Landsat 8 vigilan la vegetación en zonas volcánicas, captando […]
    Pablo Javier Piacente / T21
  • Los delfines se ponen nombres "en clave" 30 mayo, 2025
    Un nuevo estudio ha identificado que los delfines no solo se dan nombres para reconocerse, sino que además estas denominaciones podrían esconder información secreta o "en clave", que estaría ligada a los sistemas sociales que sustentan el equilibrio de sus comunidades.
    Pablo Javier Piacente / T21
  • Sorprenden a una “estrella araña” devorando a su compañera 30 mayo, 2025
    Una colaboración internacional de astrónomos ha identificado un extraño sistema estelar en el que un púlsar conocido como “estrella araña” devora material de su estrella compañera, en un hallazgo que representa un eslabón perdido en la evolución de sistemas binarios compactos. 
    Redacción T21
  • Planetas a la deriva: el origen caótico de los mundos lejanos respalda la existencia del Planeta Nueve 30 mayo, 2025
    En los márgenes más remotos de los sistemas planetarios, gigantes invisibles orbitan en silencio. Un nuevo modelo sugiere que estos mundos distantes son productos inevitables del caos primordial que reina cuando las estrellas y sus planetas compiten por sobrevivir en los abarrotados viveros estelares. ¿Podría nuestro propio Sistema Solar albergar uno de estos esquivos colosos?
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Unas gafas de realidad mixta devuelven "el mundo entero" a las personas con pérdida parcial de la visión 29 mayo, 2025
    Una técnica desarrollada por oftalmólogos e informáticos canadienses devuelve la visión perdida a personas afectadas por una lesión cerebral, que han sufrido la reducción de gran parte de su campo visual. Las gafas de realidad mixta registran y "proyectan" ese sector que las personas no pueden ver con sus ojos.
    Pablo Javier Piacente / T21
  • Primer combate de kickboxing con robots humanoides 29 mayo, 2025
    En Hangzhou, China, se celebró el 25 de mayo de 2025 el primer torneo mundial de kickboxing entre robots humanoides, un espectáculo que, según los organizadores, marcó “un momento histórico en la integración de la Inteligencia Artificial (IA) en los deportes de combate”. 
    Pablo Javier Piacente / T21
  • Primera evidencia directa del pensamiento simbólico neandertal 29 mayo, 2025
    El meticuloso análisis de un canto rodado del Paleolítico Medio aporta una prueba tangible del comportamiento simbólico y la capacidad de abstracción de los últimos neandertales que habitaron la Península Ibérica, pudiendo representar una de las primeras simbolizaciones faciales conocidas.
    EDUARDO MARTÍNEZ DE LA FE/T21
  • Un "cóctel antienvejecimiento" alarga un 30% la vida en roedores 29 mayo, 2025
    Los científicos han probado un cóctel de medicamentos antienvejecimiento en ratones y descubrieron que extendía la vida útil de los animales en alrededor del 30 %. Los roedores también se mantuvieron más saludables por más tiempo, con menos inflamación crónica y retraso en el inicio de enfermedades como cáncer.
    Redacción T21
  • La IA convierte al libro sagrado del taoísmo en una experiencia interactiva que revive la filosofía de Laozi 29 mayo, 2025
    "The Way of Code" es una audaz reinterpretación del milenario Tao Te Ching para la era digital, un libro viviente que no solo traduce la sabiduría de Laozi al lenguaje de los programadores modernos, sino que la convierte en una experiencia interactiva y transformadora donde el arte generado por IA responde al "alma" del usuario. […]
    EDUARDO MARTÍNEZ DE LA FE/T21