Tendencias21
Crean un robot que aprende un idioma como lo hace un niño

Crean un robot que aprende un idioma como lo hace un niño

Investigadores del MIT han desarrollado un sistema que permite a un robot aprender un idioma tal como lo hace un niño: es capaz de relacionar imágenes de video con subtítulos descriptivos y mediante algoritmos “entender” significados, incluso del lenguaje coloquial.

Crean un robot que aprende un idioma como lo hace un niño

Investigadores del Instituto Tecnológico de Massachusetts han desarrollado un analizador semántico que aprende el lenguaje de la misma forma que lo hacen los niños, lo que permitirá a un robot aprender a hablar de forma más rápida y natural.

Se trata de toda una proeza tecnológica, ya que hasta ahora los analizadores semánticos utilizados en computación basan su aprendizaje en oraciones creadas por seres humanos que describen la estructura y significado que ocultan las palabras. Con este sistema tradicional se han creado por ejemplo sistemas de reconocimiento de voz, como los de Alexa (el servicio de voz ubicado en la nube de Amazon) o Siri, el asistente inteligente de Apple.

En un artículo presentado en la conferencia Empirical Methods in Natural Language Processing celebrada en Bélgica, los investigadores del MIT describen un analizador que aprende a través de la observación para imitar más estrechamente el proceso de adquisición del lenguaje de un niño, toda una revolución en el campo del aprendizaje automático.

Para aprender la estructura del lenguaje, este analizador observa videos subtitulados, sin otra información, y asocia las palabras de los subtítulos con los objetos y acciones grabadas. De esta forma, puede usar lo que aprendió sobre la estructura del lenguaje para predecir con precisión el significado de una oración, en algún momento incluso sin necesidad de apoyarse en  el video.

Imitando a los niños

Este sistema imita la forma en la que los niños aprenden un idioma: lo hacen observando su entorno, escuchando a las personas que los rodean y conectando lo que ven con lo que escuchan. De manera similar, el nuevo sistema también observa el entorno, establece relaciones y aprende el idioma.

Gracias a este sistema, un robot dotado con este analizador puede adaptarse a situaciones domésticas especiales: por ejemplo, al lenguaje coloquial que empleamos en familia. Es capaz de observar nuestras expresiones, aunque no estén totalmente ajustadas a la gramática, de aprender lo que significan y de entender una orden que podamos darle, según explica uno de los artífices de este descubrimiento, Andrei Barbu, en un comunicado del MIT.

El analizador también ayudará a comprender mejor cómo aprenden el lenguaje los niños pequeños. «Un niño tiene acceso a información redundante y complementaria de diferentes fuentes, como padres o hermanos que hablan, así como información táctil e información visual que le ayuda a entender el mundo», añade el también coautor Boris Katz.  “Procesar toda esta información sensorial es un rompecabezas increíble. Nuestro trabajo ayudará a entender mejor cómo ocurre este tipo de aprendizaje en el mundo cotidiano».

Aprendizaje visual

Para conseguir este resultado, los investigadores combinaron un analizador semántico con un componente de visión artificial entrenado en reconocimiento de objetos, humanos y actividades en video.

El analizador aprendió analizando 400 videos que muestran a personas realizando una serie de acciones, entre ellas recoger un objeto o dejarlo, o caminar hacia un objeto. Todas las secuencias van acompañadas de un total de 1.200 subtítulos en los que se describen esas acciones.

Al final del aprendizaje, los investigadores comprobaron su eficacia: el sistema fue capaz de reconocer la validez de una oración según la imagen del video: la mujer está recogiendo una manzana.

Un algoritmo de visión computarizada examina cada secuencia del video para rastrear cómo se transforman los objetos y las personas con el tiempo, y determina si las acciones del vídeo se están ejecutando tal como se describe en el subtítulo. De esta manera, determina si el significado del subtítulo se corresponde con la escena del vídeo.

El entrenamiento produce una gramática sintáctica y semántica para las palabras que se aprenden. Dada una nueva oración, el analizador ya no requiere videos, sino que aprovecha su gramática y léxico para determinar la estructura y el significado de la oración.

En última instancia, este proceso significa que el analizador aprende «como si fuera un niño», concluye Barbu. “Ve el mundo a su alrededor y escucha a las personas hablar para aprender el significado. Un día, puedo darle una oración y preguntar qué significa e, incluso sin una imagen, sabe el significado».

Referencia

Grounding language acquisition by training semantic parsers using captioned videos. Ross, C, Barbu, A, Berzak, Y, Myanganbayar, B, Katz, B. Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Descubren que la base del lenguaje humano se desarrolló hace 135.000 años 20 marzo, 2025
    Los humanos hablamos más de 7.000 idiomas en la actualidad, muy diferentes entre ellos: sin embargo, un nuevo estudio ha descubierto que todas estas variantes idiomáticas provienen de un solo árbol genealógico lingüístico, que surgió antes de que nuestra especie se dividiera en poblaciones distintas hace 135.000 años. Solo 35.000 años después, el lenguaje habría […]
    Pablo Javier Piacente / T21
  • Nace el primer periódico creado íntegramente por la Inteligencia Artificial 20 marzo, 2025
    Por primera vez en la historia, un periódico italiano ha publicado una edición especial en la que cada palabra, titular y cita han sido generados exclusivamente por IA. Así nace Il Foglio AI, un proyecto que promete revolucionar la forma en que concebimos las noticias.
    Redacción T21
  • Google habría impulsado una IA experimental involucrada en la muerte de un adolescente 20 marzo, 2025
    Plataformas respaldadas por gigantes tecnológicos como Google han introducido chatbots de IA interactivos dirigidos a niños y adolescentes, abriendo fuertes debates sobre su impacto en el desarrollo infantil. En concreto, la aplicación experimental Character.AI ha sido objeto de demandas legales por parte de distintas familias, que alegan que sus hijos fueron expuestos a contenidos perjudiciales […]
    Pablo Javier Piacente / T21
  • Sudáfrica y China logran una conexión cuántica satelital récord de casi 13.000 kilómetros 20 marzo, 2025
    Un equipo internacional de científicos ha establecido una conexión satelital cuántica histórica entre Sudáfrica y China, cubriendo una distancia récord de 12.900 kilómetros. Gracias al fenómeno del entrelazamiento cuántico, esta tecnología garantiza comunicaciones absolutamente seguras frente a cualquier intento de espionaje.
    Redacción T21
  • Los tribunales no reconocen derechos de autor a la Inteligencia Artificial 20 marzo, 2025
    Un tribunal de apelaciones en Estados Unidos ha puesto límites a la creatividad de las máquinas: las obras generadas exclusivamente por inteligencia artificial no pueden ser protegidas por derechos de autor. El fallo reafirma que la ley actual requiere la participación humana para garantizar la protección legal de una obra.
    Redacción T21
  • Desvelan la primera luz que encendió el Universo 20 marzo, 2025
    El Telescopio de Cosmología de Atacama (ACT) ha compilado el mapa más detallado que hemos visto hasta hoy del fondo cósmico de microondas, la tenue luz que impregna el Universo desde solo 380.000 años después del Big Bang y cuyos ecos pueden apreciarse en la actualidad. La imagen obtenida es lo más parecido a la […]
    Redacción T21
  • Microsoft e Inait revolucionan la Inteligencia Artificial con cerebros digitales casi humanos 20 marzo, 2025
    Microsoft ha unido fuerzas con la startup suiza Inait para desarrollar sistemas de IA inspirados en el cerebro humano. Esta colaboración busca crear modelos que no solo aprenden de datos, sino que también razonan como el cerebro humano.
    Redacción T21
  • Una prueba de consciencia corporal desafía las visiones tradicionales sobre la cognición animal 19 marzo, 2025
    Los gorilas pueden ser tan conscientes de sí mismos como los chimpancés, según ha comprobado una nueva investigación: luego de realizar una prueba de autoconsciencia corporal bajo parámetros diferentes a las tradicionales, los científicos verificaron que las capacidades cognitivas de estos simios se habían menospreciado hasta hoy.
    Pablo Javier Piacente / T21
  • China plantea la necesidad de etiquetar el contenido generado con IA 19 marzo, 2025
    En colaboración con varios ministerios gubernamentales, la Administración China de Control del Ciberespacio (CAC) ha anunciado que todo el contenido generado por IA en Internet tendrá que ser etiquetado como tal. Sería la forma a través de la cual el gigante asiático se acopla a la idea europea de establecer algún tipo de regulación sobre […]
    Pablo Javier Piacente / T21
  • Escándalo: Elon Musk implanta en la Casa Blanca su servicio de internet satelital Starlink 19 marzo, 2025
    Starlink ha instalado en la Casa Blanca un servicio de Internet satelital paralelo al sistema oficial de telecomunicaciones que suscita dudas sobre su legalidad, abre brechas de seguridad en las comunicaciones secretas y aventaja a las empresas de Elon Musk en el acceso a proyectos oficiales. Polémica.
    EDUARDO MARTÍNEZ DE LA FE/T21