Tendencias21
Europa y Estados Unidos se lanzan a la conquista del cerebro

Europa y Estados Unidos se lanzan a la conquista del cerebro

Hace unas semanas se anunciaron los dos proyectos «Flagship» de la Comisión Europea, uno de los cuales se centra en un desafío significativo dentro la investigación científica: el Cerebro Humano (The Human Brain). Por otra parte, Estados Unidos ha anunciado su proyecto «Brain Map” («Mapa del Cerebro»). ¿Quién va a tener éxito? Probablemente ambas iniciativas harán avances sustanciales, pero es dudoso que el objetivo final de obtener un mapa detallado del funcionamiento del cerebro se pueda lograr. Por Víctor Maojo.

Europa y Estados Unidos se lanzan a la conquista del cerebro

Hace unas semanas se anunciaron los dos proyectos «Flagship» de la Comisión Europea, aprobados con la intención de que se conviertan en símbolos de la investigación europea.

Uno de ellos se centra en un desafío significativo dentro la investigación científica: el Cerebro Humano (The Human Brain). Financiado con más de mil millones de euros durante los próximos diez años, en un momento de angustias financieras y drásticos recortes de fondos públicos para investigación, este proyecto tiene como objetivo descubrir cómo funciona el cerebro, mediante el modelado y simulación de millones de conexiones neuronales y el uso y desarrollo para ese estudio de nuevos métodos de supercomputación.

Según se presenta, un objetivo adicional es la creación de un sistema dinámico, inteligente, que tendrá acceso a una base de datos con información de todas las publicaciones de relevancia en la investigación en neurociencias, automáticamente seleccionados de la literatura existente mediante técnicas de extracción de información y minería de textos.

Al acceder a este sistema, los investigadores podrán encontrar todo el conocimiento relevante publicado sobre el cerebro y utilizarlo para construir sus propios modelos cerebrales.

El cerebro no es como un ordenador

¿Mi opinión? A pesar de que podrá ser un interesante avance construir simulaciones de millones de neuronas su interés será sólo relativo si esa simulación es sólo parcial o sólo aproximada. Una cuestión fundamental previa es poder construir un modelo y simulación detallada y precisa de sólo unos grupos de neuronas.

Una vez que conozcamos en profundidad cómo las neuronas almacenan, transmiten, codifican e interpretan la información (y en última instancia, cómo la información es codificada, transmitida y reconocida entre dos neuronas), el proceso de descubrimiento realizado «de abajo arriba» se convertiría en una cuestión factible.

John von Neumann señalaba, pocas semanas antes de su muerte, varias ideas publicadas en su libro póstumo «El ordenador y el cerebro» (1958).

Por ejemplo, cómo el tratamiento de la información y la «lógica» del cerebro son totalmente diferentes a los de los ordenadores –con frecuencia llamados «ordenadores von Neumann», por haber sido él mismo el que diseñó el modelo lógico y su arquitectura teórica.

Del mismo modo, Claude Shannon, el fundador de la moderna teoría de la comunicación –también conocida como Teoría de la Información de Shannon –, siempre negó la posibilidad de que su teoría fuese útil para comprender cómo la información se codifica y se transmite en los seres vivos.

No sorprende que las investigaciones realizadas con el uso de la teoría de Shannon para descubrir el código genético en la década de 1950 fracasasen.

Mientras que el uso de esta teoría en los ordenadores –los conocidos «bits» incluidos–, ha revolucionado el manejo de información y conocimiento humano, nos ha sido de relativa poca utilidad para ayudarnos a entender los procesos de manejo de información en el interior de los propios seres vivos y dar sentido a los muchos tipos de «información» que reconocemos entre los humanos.

Sin embargo, esa dirección de «abajo-arriba» no será suficiente para comprender procesos complejos a un nivel neuronal más alto, considerando grupos numerosos de neuronas, tales como los de la memoria a corto plazo y largo plazo, el razonamiento, el procesamiento del lenguaje, la interpretación de imágenes, y otras funciones básicas del cerebro. Incluso la conciencia.

Necesidad de estudio en dos direcciones

Esa investigación requerirá un abordaje distinto, combinando ese enfoque reduccionista con otro «de arriba abajo», en el que la influencia del entorno es fundamental. Estas dos direcciones, complementarias, son necesarias.

La propuesta de construir una gran base de datos que contenga toda la información publicada sobre investigación neurocientífica, que necesitaría actualización automática constante, podría resultar mucho más sencillo de lo que parece, al menos desde el punto de vista computacional.

De hecho, en nuestro Grupo de Informática Biomédica de la Universidad Politécnica de Madrid hemos llevado a cabo este tipo de investigación con un análisis de la información procedente de todos los artículos almacenados en PubMed, creando un método que puede extraer automáticamente información acerca de recursos informáticos en la bioinformática, informática médica y la nanoinformática.

Esto pretende crear lo que podría llamarse una «resourceome», es decir, un conjunto de recursos de información de diferentes tipos y en diferentes niveles. Este trabajo fue publicado hace unos años, con éxito, como se reflejó también con una mención en el blog de los editores de la sección Science Careers de la conocida revista Science.

El problema de extraer información precisa acerca de la fisiología del cerebro a partir de la literatura puede considerarse muy similar.

Estados Unidos y el Brain Map

Hace unos días, el proyecto americano «Brain Map» fue mencionado en el discurso de «El Estado de la Nación» del presidente Obama. Este no es el primer megaproyecto relacionado con el tema, pues la «Década del Cerebro», fue lanzada antes, en 1990, por el presidente Bush (padre).

Obama comparó este nuevo proyecto «Mapa del Cerebro» con el Proyecto Genoma Humano, que tuvo un enorme impacto científico. Por ejemplo, gracias a este último se han creado varias nuevas áreas científicas y ha cambiado nuestra perspectiva de la genética y la genómica, así como la propia medicina en su totalidad.

Desde el punto de vista económico, también se ha puesto en marcha toda una industria. Según Obama, este proyecto podría tener un éxito económico y científico similar. Sin embargo, hay que recordar también que la «Década del Cerebro» tuvo un éxito muy limitado, y se recuerda hoy con poco entusiasmo.

Ahora habrá que esperar a ver qué pasa con este nuevo proyecto. Con 300 millones de dólares por año (duplicando el proyecto europeo Human Brain, como sucede a menudo en estas comparaciones científicas entre ambos lados del Atlántico), el proyecto americano Brain Map parece dispuesto a comenzar la construcción de un mapa del cerebro.

En principio parece similar al propio proyecto europeo, pero a un nivel más detallado, buscando los principios básicos de funcionamiento neuronal. Para ello será necesario crear nuevas técnicas de investigación, que incluirían desarrollos nanotecnológicos y de gestión de información al nivel molecular y «nano».

Gestionar la información existente y generada a tal nivel nano es el objetivo de una disciplina reciente llamada nanoinformática, en la que nuestro grupo ha participado sus primeros desarrollos. Incluyo al final algunas publicaciones que hemos realizado hasta la fecha en el área de nanoinformática.

¿Quién llegará primero a la meta?

¿Quién va a tener éxito? Si se me permite tratar de ser adivino, tanto el proyecto estadounidense como el europeo probablemente harán avances sustanciales, pero es dudoso que el objetivo final de obtener un mapa detallado del funcionamiento del cerebro se pueda lograr en este corto período de tiempo.

En esta carrera, un proyecto de ciencia básica como el americano –con un presupuesto mayor, además– puede tener mayores posibilidades de éxito; sin embargo, las comparaciones con el Proyecto Genoma Humano no son realistas.

Este último era un problema que no pretendía realizar avances fundamentales en química o biología básica y se benefició sustancialmente de una estrategia brillante: compartir abiertamente la información y herramientas informáticas generadas por cada grupo.

De hecho, obtener la secuenciación del ADN humano era tarea laboriosa y complicada, pero ya se conocía la estructura del ADN y algunas técnicas fundamentales ya estaban disponibles, por lo que no era imprescindible lograr avances radicales en la ciencia básica o un cambio de paradigma en el sentido de Kuhn.

La secuenciación del ADN progresó rápidamente a través de la coordinación del trabajo entre los distintos grupos y el intercambio libre y abierto de información y de programas de bioinformática en varios continentes. Un problema muy complicado, pero no excesivamente complejo, haciendo un juego de palabras.

Una vez que el genoma humano fue secuenciado, el siguiente objetivo era identificar los genes y las mutaciones que subyacen a muchas enfermedades (cáncer, enfermedades raras, etc); pero esto ha demostrado ser un problema mucho más complejo de lo que fue la secuenciación del ADN. El camino hacia la medicina genómica promete ser mucho más difícil de lo esperado.

Además de la dificultad de lograr un consenso entre más de un centenar de grupos de investigación en el proyecto europeo, superar los desafíos científicos presentados y sobrevivir a la burocracia paquidérmica de este tipo de megaproyectos –particularmente en el proyecto europeo– existe un riesgo inherente: si fallan, se puede detener el progreso en el área por muchos años.

Un ejemplo es el famoso proyecto de la «Quinta Generación» de ordenadores, lanzado en Japón en los años 80, que tenía por objeto la creación de computadoras inteligentes que pudiesen ser fácilmente programadas y pueden comunicarse con los humanos en lenguaje natural. No tuvo éxito, según la inmensa mayoría de informes; pero podríamos considerar, en el sentido de este blog, que no fue un fracaso para los que se beneficiaron de los mil millones de dólares que el gobierno japonés invirtió en él…

¡Preparados, listos, ya! La carrera acaba de comenzar…

Referencias bibliográficas:

de la Calle G, García-Remesal M, Nkumu-Mbomio N, Kulikowski C, Maojo V. e-MIR2: a public online inventory of medical informatics resources. BMC Med Inform Decis Mak (2012). DOI:10.1186/1472-6947-12-82.

de la Calle G, García-Remesal M, Chiesa S, de la Iglesia D, Maojo V. BIRI: a new approach for automatically discovering and indexing available public bioinformatics resources from the literature. BMC Bioinformatics (2009). DOI:10.1186/1471-2105-10-320.

Science Careers: http://blogs.sciencemag.org/sciencecareers/2010/07/easier-access-t.html.

Victor Maojo, Martin Fritts, Diana de la Iglesia, Raul E. Cachau, Miguel Garcia-Remesal, Joyce A. Mitchell, Casimir Kulikowski. Nanoinformatics: a new area of research in nanomedicine. International Journal of Nanomedicine (2012). DOI: 10.2147/IJN.S24582.

Maojo V, Fritts M, Martin-Sanchez F, De la Iglesia D, Cachau RE, Garcia-Remesal M, Crespo J, Mitchell JA, Anguita A, Baker N, Barreiro JM, Benitez SE, De la Calle G, Facelli JC, Ghazal P, Geissbuhler A, Gonzalez-Nilo F, Graf N, Grangeat P, Hermosilla I, Hussein R, Kern J, Koch S, Legre Y, Lopez-Alonso V,Lopez-Campos G, Milanesi L, Moustakis V, Munteanu C, Otero P, Pazos A, Perez-Rey D, Potamias G, Sanz F, Kulikowski C. Nanoinformatics: developing new computing applications for nanomedicine. Comput Sci Eng. (2012).

Víctor Maojo es doctor en medicina e informática y catedrático de inteligencia artificial. Desde 1993 dirige el Grupo de Informática Biomédica de la Universidad Politécnica de Madrid. Este artículo fue publicado originalmente en su blog Ciencia y Sátiras de Tendencias21.

English version

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Ya es posible transmitir el tacto a través de Internet 26 junio, 2024
    Un nuevo estándar para la compresión y transmisión del sentido del tacto mediante Internet sienta las bases para la telecirugía, la teleconducción y nuevas experiencias de juego en línea, entre otras aplicaciones. El flamante estándar HCTI (Haptic Codecs for the Tactile Internet) es para el “tacto digital” lo que son JPEG, MP3 y MPEG para […]
    Pablo Javier Piacente
  • Las primeras muestras de la cara oculta de la Luna ya están en la Tierra 26 junio, 2024
    La cápsula de reingreso de la sonda Chang'e-6 de China, que transporta hasta dos kilogramos de materiales extraídos y perforados de la cuenca más antigua de la Luna ubicada en su lado oscuro, aterrizó este martes 25 de junio en la región de Mongolia Interior y fue rápidamente recuperada, según informó la Administración Nacional del […]
    Pablo Javier Piacente
  • La Tierra tendrá dos soles dentro de 1,3 millones de años y durante 60.000 años 26 junio, 2024
    Dentro de 1,3 millones de años, la Tierra tendrá una especie de segundo sol porque la estrella Gliese 710 se acercará a 1,1 años luz de la Tierra y la veríamos del mismo tamaño que Júpiter. Lo malo es que esa alteración cósmica puede provocar un episodio en nuestro planeta como el que acabó con […]
    Eduardo Martínez de la Fe
  • China descubre grafeno natural en la Luna 25 junio, 2024
    Investigadores chinos han descubierto recientemente grafeno natural de escasas capas por primera vez en la Luna, a partir de las muestras traídas a la Tierra por la sonda Chang'e 5. El hallazgo proporciona nuevos conocimientos sobre las actividades geológicas, la historia evolutiva y las características ambientales de la Luna.
    Pablo Javier Piacente
  • Los incendios forestales extremos se duplicaron en los últimos 20 años en todo el planeta 25 junio, 2024
    Una nueva investigación concluye que la frecuencia e intensidad de los incendios forestales extremos se ha más que duplicado en todo el mundo en las últimas dos décadas, debido al calentamiento global antropogénico y otros factores relacionados. Se trata de la primera ocasión en la cual los científicos pudieron trazar una tendencia global para los […]
    Pablo Javier Piacente
  • Detectado en el Mediterráneo el neutrino más energético del universo 25 junio, 2024
    El neutrino más potente jamás observado ha dejado su huella en las profundidades del Mediterráneo, aunque todavía se desconoce de qué rincón del universo procede. Los neutrinos cosmogénicos son los mensajeros de algunos de los eventos más cataclísmicos del cosmos.
    Eduardo Martínez de la Fe
  • La IA identifica seis formas diferentes de depresión 24 junio, 2024
    Los científicos han identificado seis formas biológicamente distintas de depresión gracias a la aplicación de la Inteligencia Artificial (IA) en estudios cerebrales. El hallazgo podría explicar por qué algunas personas no responden a los tratamientos tradicionales para la afección, como los antidepresivos y la terapia psicológica.
    Pablo Javier Piacente
  • La NASA pondrá en órbita una estrella artificial que revolucionará el estudio del Universo 24 junio, 2024
    La NASA encarará un ambicioso proyecto para colocar en órbita una estrella artificial: permitirá la calibración de telescopios a niveles previamente inalcanzables. El proyecto tiene como objetivo mejorar significativamente las mediciones de la luminosidad estelar y abordar varios otros desafíos que dificultan la astrofísica moderna.
    Pablo Javier Piacente
  • Los macacos nos enseñan cómo sobrevivir a un desastre natural 24 junio, 2024
    Los macacos de la isla caribeña de Puerto Rico se volvieron más tolerantes y menos agresivos después del huracán María, que los obligó a compartir la sombra de los árboles para sobrevivir al intenso calor.
    Redacción T21
  • Extrañas formas de vida se ocultan en antiguas cuevas de lava de Hawai 23 junio, 2024
    Científicos estadounidenses han logrado identificar una gran diversidad de especies microbianas únicas, que se han desarrollado en cuevas geotérmicas, tubos de lava y fumarolas volcánicas de la isla de Hawái. Estas estructuras subterráneas se formaron hace entre 65 y 800 años y reciben poca o ninguna luz solar, en ambientes similares a los que pueden encontrarse […]
    Pablo Javier Piacente