Tendencias21

Nuevos enfoques en el estudio de la mente

La cognición se entiende hoy como una función de supervivencia que sirve para organizar el mundo experiencial del sujeto según sus propósitos, no para describir una realidad externa objetiva. Este nuevo paradigma científico ha dado origen a una Ciencia Cognitiva “corporizada” y a una “Nueva Inteligencia Artificial”. Ambas consideran a la acción –más bien que al pensamiento– como primaria. Su objetivo final es entender –y tratar de reproducir– cómo surgen los procesos cognitivos de alto nivel a partir de las interacciones de bajo nivel con el entorno. Y de ellas derivan los “sistemas cognitivos corporizados” (embodied cognitive systems) y, en particular, la “robótica basada en el comportamiento” (behaviour-base robotics), la “robótica situada” (situated robotics), la “robótica epigenética” (epigenetic robotics) y la “robótica evolutiva” (evolutionary robotics). Por Sergio Moriello.

Nuevos enfoques en el estudio de la mente

El estudio de la mente humana comenzó hace varios siglos atrás, pero se aceleró hace relativamente poco tiempo con el inicio de la Ciencia Cognitiva (de ahora en más, CC). Por otra parte, la posibilidad de dotar a las máquinas con una especie de “protomente” (de forma más concreta, inteligencia) surge con el advenimiento de la Inteligencia Artificial (de ahora en más, IA). Quizás por casualidad, ambas disciplinas nacen en el mismo año: 1956 [Gardner, 1996]; es decir, hace casi 50 años.

La CC es “el estudio teórico y experimental de los mecanismos de codificación, almacenamiento, manipulación y transferencia de la información en sistemas naturales y artificiales que aseguran de manera integrada funciones de percepción, razonamiento y producción” (producción, en el sentido de actuación, de ejecutar una acción visible) [Engel, 1993, p. 228].

Se trata de un esfuerzo interdisciplinario que toma elementos de la Filosofía, la Psicología, la Antropología, la Neurociencia, la Inteligencia Artificial y la Lingüística. Estudia fundamentalmente los procesos –y las estructuras– relacionadas con la mente humana.

La IA, en cambio, “tiene por objeto el estudio del comportamiento inteligente en la máquina” [Nilsson, 2001, p. 1]. Se trata de una disciplina que basa sus raíces en la Ingeniería (Electrónica e Informática), en la Ciencia de la Computación, en la Lógica y en las Matemáticas.

La IA y la CC

Ambas disciplinas conciben al cerebro humano como una especie de mecanismo computacional biológico y postulan a la computadora digital convencional como su mejor metáfora funcional. Se basan sobre lo que Newell y Simon denominan “hipótesis del sistema de símbolos físicos”, el cual postula que un sistema de símbolos físicos posee los medios necesarios y suficientes para realizar una acción inteligente genérica [Rich y Knight, 1994, p. 6/7].

En otras palabras, la CC y la IA clásicas modelan a la materia gris como un dispositivo computacional físico –de muy alta complejidad– que procesa información operando sobre representaciones simbólicas internas a través de la aplicación secuencial de un conjunto de reglas almacenadas.

Dichas representaciones codifican –en el nivel cognitivo– aspectos relevantes del mundo a fin de ser utilizables y las reglas transforman esas representaciones en otras nuevas [Duffy y Joue, 2000]. De esta manera, si todos los estados mentales (como creencias, pensamientos y conceptos) pueden describirse como operaciones sobre representaciones simbólicas, la actividad mental (razonamiento, planificación, toma de decisión) es equivalente a la ejecución de un algoritmo.

Algunas limitaciones

Sin embargo, ambas disciplinas tienen algunas restricciones claves. La CC clásica no considera el nivel biológico-neurológico ni el social-cultural y tampoco presta mucha atención a los procesos emocionales ni a los contextuales.

La IA clásica, en cambio, presenta los problemas de “escalamiento” (los procedimientos que trabajan bien en escalas reducidas no siempre se comportan igualmente bien aplicados a versiones más grandes del mismo problema), de “marco” (cómo representar los hechos que cambian y aquellos que no lo hacen), de “falta de comprensión” (sus productos manejan símbolos que reconocen pero no comprenden) y de “sentido común” (esa elevada riqueza de conocimientos y comprensión inmediata del mundo, producto de la experiencia acumulada durante millones de años).

Asimismo, ambas describen y sintetizan algunos procesos mentales de “alto nivel” (como la cognición, el lenguaje y el razonamiento), subestimando los de “bajo nivel” (como la percepción, el movimiento y la interacción con el mundo real) en la generación de la conducta inteligente. Además, el procesamiento simbólico se encuentra localizado: la pérdida o mal funcionamiento de cualquier símbolo o regla puede terminar en un daño catastrófico [Ojeda, 2001].

Por último, este tipo de máquinas sólo puede procesar un tipo particular de símbolos: aquellos pertenecientes a un lenguaje formal sistemático, a un lenguaje lógico-matemático. El hombre, en cambio, es capaz de utilizar lenguajes descriptivos: sus elementos son palabras, nombres. En otros términos, una máquina de IA clásica puede resolver solamente un subconjunto de los problemas que el hombre enfrenta, aquellos representables en un lenguaje sistematizado.

La Robótica clásica

En cuanto al paradigma del control para los robots, la principal desventaja del acercamiento a la IA clásica es que el razonamiento explícito acerca de los efectos producidos por las acciones de bajo nivel son demasiados caros computacionalmente y consumen mucho tiempo como para generar un adecuado comportamiento de tiempo real en ambientes dinámicos complejos [Russell y Norvig, 1996, p. 831].

Es así que los robots clásicos son generalmente frágiles, en el sentido que no toleran muy bien el ruido en las señales entrantes y no pueden adaptarse a aquellas nuevas situaciones que no fueron previstas por su programador.

El mundo real no puede modelarse de manera confiable ya que es inabarcable y cuenta –además– con propiedades dinámicas e inciertas: se encuentra lleno de sorpresas.

Muchos de los problemas que los humanos resuelven cotidianamente parecen tener una inmanejable complejidad computacional para los sistemas diseñados en el marco de la IA clásica [Florian, 2003].

Un nuevo paradigma

La metáfora postulada por la CC y la IA clásicas es tentadora y –hasta cierto grado– fructífera, pero es válida sólo a un nivel relativamente abstracto, por lo que tiene una utilidad muy restringida. El modelo “des-encarnado” (desembodiment) y “des-situado” (desituated) de una computadora digital que procesa únicamente información estructurada y programada de antemano, sin interacción con el medio ambiente, no explica de forma adecuada el éxito adaptativo de muchas criaturas [Queiroz, 2000] [Ripalda, 2005] [Maccari, s/d].

El sistema cerebro-mente biológico procesa la información de un modo distribuido y está organizado de manera mucho más maleable y adaptable que una computadora secuencial, ya que funciona con relación al contexto y se modifica con cada nueva percepción y acción. Todo parece indicar que la metáfora convencional no es una base sólida sobre la cual construir máquinas con una inteligencia de nivel animal, y mucho menos humano [Kapor, 2002].

De allí que, a lo largo de su escasa historia, estas disciplinas modificaron su punto de vista. El primigenio enfoque dualista (el cerebro y la mente son dos cosas diferentes) se reemplazó por el monista (el cerebro y la mente son una y la misma cosa). De la inicial base psicológica y lingüística, se cambió a una base biológica y etológica.

Asimismo, de la antigua idea de imaginar a la mente como un programa secuencial (el software) que corre sobre un sustrato físico –un cerebro o una máquina– (el hardware) se pasó a considerar al sistema mente-cerebro como una red autónoma que emerge del “acoplamiento estructural” entre el cuerpo y el entorno, a través de la coordinación entre el sistema sensorial y el motor.

Nuevos enfoques en el estudio de la mente

Algunos cuestionamientos: el entorno

Actualmente se cuestiona una de las hipótesis fundamentales tanto del cognitivismo como del conexionismo: la idea de que el entorno existe de antemano, está fijado y acabado. El medio ambiente hoy se considera como un trasfondo, un ámbito o campo para la experiencia de la máquina –algo que la circunda, la rodea o la cerca–, que nunca se puede precisar en forma absoluta y definitiva, y que se modela continuamente a través de los actos que aquella efectúa [Varela, Thompson y Rosch, 1997, p. 166, 168 y 173].

En el caso de los organismos, su entorno está constituido por las condiciones exteriores que son relevantes para ellos, y está determinado por sus actividades. En otras palabras, los organismos no “se adaptan” a un medio fijado de antemano, a un “nicho” exterior autónomo, sino que –en cierta medida– “lo construyen” a través de sus propias actividades vitales [Lewontin, 2000, p. 51].

En consecuencia, tanto los organismos vivos como el ecosistema habitado por ellos se encuentran en un estado de constante flujo, de fluidez, en donde se modifican y reconstruyen continuamente al interactuar entre sí, “acoplándose” de forma mutua y recíproca [Lewontin, 2000, p. 76/8].

Algunos cuestionamientos: la representación

También se cuestiona la idea de que la cognición consista en recobrar –de modo pasivo– los rasgos extrínsecos del medio ambiente externo a través de un proceso de representación relativamente atinado. La cognición denota ahora al fenómeno de “hacer emerger” el significado a partir de realimentaciones sucesivas entre el organismo y el entorno local (tanto físico como cultural); surge a partir de una interacción “dialéctica”, de un “diálogo” entre ambos componentes.

El conocimiento depende, entonces, de las experiencias vividas que se originan debido a la posesión de un cuerpo con diferentes capacidades sensomotoras, las cuales están “encastradas” dentro de un entorno biológico, psicológico y cultural mucho más amplio [Varela, Thompson y Rosch, 1997, p. 203].

Por eso, conocer y vivir son cosas inseparables y se equivalen [Maturana y Varela, 2003, p. 58]. En síntesis, la cognición es una función de supervivencia, sirve para organizar el mundo experiencial del sujeto según sus propósitos, no para describir una realidad externa objetiva.

La Nueva IA y la CC Corporizada

A partir de este nuevo paradigma científico (y hasta filosófico), y con el aporte de otras ciencias (como la Sistémica, la Cibernética, la Biología, la Sociología y la Etología), surgen la “CC corporizada” y la “Nueva IA” (o “Nouvelle IA”). Estudian la interacción dinámica entre el comportamiento de bajo nivel de los agentes completos (es decir, agentes corporizados y situados) y su entorno.

No manipulan representaciones simbólicas internas del mundo, sino que operan directamente sobre él a través de patrones de actividad sensomotoras; es decir, consideran a la acción –más bien que al pensamiento– como primaria. Su objetivo final es entender –y tratar de reproducir– cómo surgen los procesos cognitivos de alto nivel a partir de las interacciones de bajo nivel con su nicho ecológico [Kortmann, 2001].

Y de ellas derivan los “sistemas cognitivos corporizados” (embodied cognitive systems) y, en particular, la “robótica basada en el comportamiento” (behaviour-base robotics), la “robótica situada” (situated robotics), la “robótica epigenética” (epigenetic robotics) y la “robótica evolutiva” (evolutionary robotics).

smoriello@redcientifica.com es periodista científico, Ingeniero en Electrónica y posgraduado en Administración Empresarial. Actualmente está finalizando la Maestría en Sistemas de Información. Es autor del libro Inteligencias Sintéticas.

Bibliografía

1. Duffy, B. y Joue, G. (2000): Intelligent Robots: The Question of Embodiment. Brain-Machine 2000 Workshop. 20/22 Diciembre.

2. Engel, P. (comp.) (1993): Psicología Ordinaria y Ciencias Cognitivas. Barcelona, Editorial Gedisa.

3. Florian, R. (2003): Autonomous artificial intelligent agents Technical Report Coneural, 4 de febrero.

4. Gardner, H. (1996): La nueva ciencia de la mente. Barcelona, Ediciones Paidós, 2° reimpresión.

5. Kapor, M. (2002): Why I Think I Will Win. KurzweilAI.net, 9 de abril.

6. Kortmann, R. (2001). Embodied cognitive science. Primer simposio alemán de inteligencia corporizada. Universidad Utrecht, Utrecht, Holanda.

7. Lewontin, R. (2000): Genes, organismo y ambiente. Barcelona, Editorial Gedisa.

8. Maccari, A. (s/d): Le Reti Neurali e la Mente Analogica Neuroingegneria.

9. Maturana, H. y Varela, F. (2004): De máquinas y seres vivos. Autopoiesis: la organización de lo vivo. Buenos Aires, Editorial Universitaria y Editorial Lumen, 6° edición.

10. Nilsson, N. (2001): Inteligencia Artificial. Una nueva síntesis. Madrid, McGraw-Hill/Interamericana de España.

11. Ojeda, C., (2001): Francisco Varela y las ciencias cognitivas. Revista Chilena de Neuropsiquiatría, Nº 39, pág. 286/95.

12. Queiroz, J. (2000): Novos modelos de cognição encorporada, situada e contextualizada em Ciências Cognitivas. Revista Eletrônica Informação e Cognição. Marília, vol. 2, N° 2.

13. Rich, E. y Knight, K. (1994): Inteligencia Artificial. Madrid, Editorial McGraw Hill / Interamericana de España.

14. Ripalda, I. (2005): Algunas ideas de Gerald Edelman sobre el darwinismo neuronal. Revista Elementos, N° 57, vol. 12, Enero – Marzo, p. 51/3.

15. Russell, S. y Norvig, P. (1996): Inteligencia Artificial: un enfoque moderno. México, Editorial Prentice Hall Hispanoamericana.

16. Varela, F., Thompson, E. y Rosch, E. (1997): De cuerpo presente. Barcelona, Editorial Gedisa, 2° edición.

Sergio Moriello

Hacer un comentario

RSS Lo último de Tendencias21

  • La acidez cerebral podría estar relacionada con múltiples trastornos neurológicos 11 abril, 2024
    Un estudio en animales a gran escala vincula los cambios en el pH del cerebro con problemas cognitivos de amplio alcance, ligados a patologías como el autismo o el Alzheimer, entre otras. Los científicos creen que los problemas metabólicos en el cerebro podrían estar directamente relacionados con una variedad de trastornos neuropsiquiátricos y neurodegenerativos.
    Pablo Javier Piacente
  • Cultivan organoides cerebrales con conexiones neuronales similares a las de un cerebro real 11 abril, 2024
    Un equipo internacional de investigadores ha desarrollado una técnica para conectar tejidos cultivados en laboratorio que imitan al cerebro humano de una manera que se asemeja a los circuitos neuronales del cerebro real. El "sistema" de mini cerebros interconectados podría revolucionar nuestra comprensión de las funciones cerebrales.
    Pablo Javier Piacente
  • Los Estados se exponen a condenas judiciales por inacción climática 11 abril, 2024
    Suiza es el primer Estado condenado judicialmente por no resolver el desafío climático y violar los derechos humanos de las personas mayores. Hace un año, 16 niños y jóvenes obtuvieron una sentencia condenatoria contra el Estado de Montana por destruir con sus leyes el medioambiente. Cualquier Estado puede ser denunciado si no preserva el ambiente en […]
    Eduardo Martínez de la Fe
  • Detectan extraños pulsos de radio procedentes de un magnetar que desconciertan a los científicos 10 abril, 2024
    Los astrónomos han detectado señales de radio inusuales procedentes de XTE J1810-197, un radiomagnetar o estrella de neutrones ultramagnética situada a 8.100 años luz de distancia de la Tierra, en la constelación de Sagitario. Los resultados son inesperados y sin precedentes: a diferencia de las señales de radio que se han detectado en otros magnetares, […]
    Pablo Javier Piacente
  • La IA podría ser el límite para todas las civilizaciones avanzadas en el Universo 10 abril, 2024
    Un nuevo estudio sugiere que el desarrollo de la Inteligencia Artificial (IA) hacia una Superinteligencia Artificial (ASI) podría explicar por qué no hemos detectado aún otras civilizaciones avanzadas en el cosmos, a pesar de la alta probabilidad de su existencia: en vez de supernovas, plagas, guerras nucleares o eventos climáticos extremos que hayan sido un […]
    Pablo Javier Piacente
  • Higgs ha podido dejar abierta la puerta a la Nueva Física 10 abril, 2024
    La muerte de Peter Higgs, que pasará a la historia como el descubridor del bosón que explica cómo se forma la materia, deja un legado en la historia de la física que todavía puede aportar algo más trascendente: la prueba definitiva de una Nueva Física más allá del Modelo Estándar.
    Eduardo Martínez de la Fe
  • Descubren neuronas "zombis" en el cerebro, que serían claves en el proceso de aprendizaje 9 abril, 2024
    Las neuronas "zombis" son unidades vivas pero funcionalmente alteradas, que parecen "dormidas" en determinadas situaciones: los investigadores han revelado que cumplen un papel fundamental en el cerebelo, concretamente en aspectos relativos a la forma en la cual aprendemos.
    Pablo Javier Piacente
  • La Luna se invirtió por completo hace más de 4 mil millones de años 9 abril, 2024
    Hace unos 4.220 millones de años, poco después de que la Luna se formara a partir de un trozo de la Tierra que se desprendió durante una colisión violenta a principios de la historia del Sistema Solar, nuestro satélite se dio vuelta y comenzó así una etapa clave de su desarrollo. Así lo ha comprobado […]
    Pablo Javier Piacente
  • Arte rupestre de hace 2.000 años podría representar música psicodélica 9 abril, 2024
    Aunque la música psicodélica moderna no nació hasta la década de 1960, las influencias psicodélicas se pueden encontrar en el arte rupestre de hace miles de años. Grabados precolombinos en piedra, de 2.000 años de antigüedad, reflejan figuras humanas bailando en estado de trance chamánico.
    Redacción T21
  • Descubren antiguas partículas de polvo espacial provenientes de otro sistema estelar 8 abril, 2024
    Los astrónomos han descubierto una rara partícula de polvo atrapada en un antiguo meteorito extraterrestre, que fue formado por una estrella distinta a nuestro Sol. El polvo se habría originado luego de una supernova: las partículas son como "cápsulas del tiempo celestes" y proporcionan una instantánea de la vida de su estrella madre.
    Pablo Javier Piacente