Tendencias21
Consiguen que la Inteligencia Artificial aprenda la ética humana

Consiguen que la Inteligencia Artificial aprenda la ética humana

Investigadores alemanes han enseñado a una Inteligencia Artificial a que siga una línea de conducta ética desde el punto de vista humano. Puede extraer un razonamiento moral sobre la conducta «correcta» e «incorrecta» de un texto escrito.

Consiguen que la Inteligencia Artificial aprenda la ética humana

Un estudio realizado por el Centro para la Ciencia Cognitiva de la Universidad Técnica de Darmstadt, en Alemania, ha demostrado que las máquinas de inteligencia artificial (IA) pueden aprender una brújula moral  a través de los valores humanos plasmados en nuestros textos.
 

El hecho de que las máquinas con IA realicen actividades que requieran cierto nivel de independencia, como sugerir tratamientos a pacientes, tomar decisiones de compra u optimizar los flujos de trabajo, plantea la pregunta de dónde están sus límites morales.
 

Los resultados del estudio se presentaron en la II Conferencia ACM / AAAI sobre Inteligencia Artificial, Ética y Sociedad (AIES), celebrada el pasado mes de enero en Hawái, tal y como refleja un comunicado.
 

El desarrollo de la IA implica la necesidad de una brújula moral
 

La IA tiene un impacto creciente en nuestra sociedad. Desde los vehículos autónomos que circulan por sí mismos en las vías públicas, pasando por los sistemas de producción industrial que se optimizan a sí mismos, hasta el cuidado de la salud, las máquinas de IA realizan tareas humanas cada vez más complejas de manera cada vez más autónoma. Y en el futuro, las máquinas autónomas aparecerán en más áreas de nuestra vida cotidiana.
 

En consecuencia, estas máquinas se enfrentarán a decisiones cada vez más difíciles. Un robot autónomo debe saber que no debe matar personas, pero que está bien matar el tiempo. El robot necesita saber que debería tostar una rebanada de pan en lugar de un hámster. En otras palabras: la IA necesita una brújula moral de tipo humano que la guíe para que tome decisiones éticas.
 

Advertencias previas
 

Investigadores de Princeton (EE. UU.) y Bath (Reino Unido), en su estudio “Semantics derived automatically from language corpora contain human-like biases”, publicado en abril de 2017 en la revista Science, señalaron el peligro de que la IA, cuando se aplica sin cuidado, pueda aprender asociaciones de palabras a partir de textos escritos y que estas asociaciones reflejen las aprendidas por los humanos.
 

Por ejemplo, la IA interpretó que los nombres masculinos más comunes en la comunidad afroamericana son bastante desagradables, mientras que los nombres más habituales entre caucásicos eran más bien agradables. También vinculaba más los nombres femeninos al arte y los nombres masculinos a la tecnología.
 

Estos resultados se obtuvieron al incorporar a una red neuronal grandes colecciones de textos escritos obtenidos de Internet para aprender representaciones vectoriales de palabras.
 

La similitud semántica de dos palabras se calcula como la distancia entre sus coordenadas, en un proceso denominado Word embedding. Las relaciones semánticas complejas se pueden calcular y describir mediante aritmética simple.

Las máquinas pueden reflejar nuestros valores
 

Un equipo dirigido por los profesores Kristian Kersting y Constantin Rothkopf, de la Universidad Técnica de Darmstadt, ha demostrado con éxito que el aprendizaje automático también puede extraer un razonamiento ético y deontológico sobre la conducta «correcta» e «incorrecta» del texto escrito.
 

Con este fin, los científicos crearon una lista de plantillas de preguntas y respuestas, con preguntas como «¿Debo matar a personas?», «¿Debo asesinar a personas?», etc. Con plantillas de respuesta como «Sí, debería» o «No, no debería”, el sistema de inteligencia artificial desarrolló una brújula moral similar a la humana al procesar una gran cantidad de textos humanos.
 

La orientación moral de la máquina se calcula mediante la incorporación de preguntas y respuestas. Más precisamente, el sesgo de la máquina es la diferencia de distancias a la respuesta positiva («Sí, debería») y a la respuesta negativa («No, no debería»).
 

Termómetros morales
 

El estudio muestra que las máquinas pueden reflejar nuestros valores. De hecho, pueden adoptar prejuicios parecidos a los humanos, pero también pueden adoptar nuestras elecciones morales al «observar» a los humanos.
 

En general, las incorporaciones de preguntas y respuestas se pueden ver como una especie de microscopio que permite estudiar los valores morales de las recopilaciones de textos, así como el desarrollo de valores morales en nuestra sociedad.
 

Los resultados del estudio proporcionan varias vías para el trabajo futuro. En particular, cuando se incorporan módulos construidos a través del aprendizaje automático en los sistemas de toma de decisiones.

Referencias
 

The Moral Choice Machine: Semantics Derived Automatically from Language Corpora Contain Human-like Moral Choices. S. Jentzsch et al. Proceedings of the 2nd AAAI/ACM Conference on AI, Ethics, and Society (AIES). Machine Learning Lab, 2019.

Semantics derived automatically from language corpora contain human-like biases. A. Caliskan et al. Science, 14 April 2017. DOI: 10.1126/science.aal4230.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Un enorme objeto interestelar modificó para siempre a nuestro Sistema Solar 22 enero, 2025
    Un estudio sugiere que es posible que un objeto de origen interestelar de enorme tamaño y peso se introdujera en el Sistema Solar al principio de su formación, dejando una huella imborrable en las órbitas planetarias, antes de desviarse nuevamente hacia otros confines del Universo. El visitante fugaz podría haber tenido características similares al misterioso […]
    Pablo Javier Piacente / T21
  • Cada vez más cerca de la energía limpia e ilimitada: el “Sol artificial” de China rompe un nuevo récord 22 enero, 2025
    La posibilidad de disfrutar de una fuente energética limpia e inagotable está más cerca de ser una realidad, luego que este lunes 20 de enero el Experimental Advanced Superconducting Tokamak (EAST), el reactor de fusión experimental conocido como el “Sol artificial” chino, rompiera un nuevo récord de producción de plasma: superó en más del doble […]
    Pablo Javier Piacente / T21
  • La costumbre de orinar en grupos provendría de los monos 22 enero, 2025
    Las personas generalmente van al baño en grupos: según una nueva investigación, los chimpancés hacen lo mismo, posiblemente para fortalecer los lazos sociales. Es posible que la tendencia en los seres humanos hacia la "micción contagiosa" sea una herencia evolutiva proveniente de otros primates.
    Redacción T21
  • Descubren antiguos sacrificios para hacer "renacer" al Sol después de una enorme erupción volcánica 21 enero, 2025
    Cientos de artefactos de piedra descubiertos en la isla danesa de Bornholm pueden haber sido ofrecidos a los dioses para evitar una crisis climática: se entregaron a modo de sacrificio hace casi 5.000 años, para lograr el "regreso" de un Sol oscurecido luego de una gigantesca erupción volcánica. Los investigadores creen que todo el hemisferio […]
    Pablo Javier Piacente / T21
  • El cambio climático está "atrapando" a algunas bacterias en un bucle temporal eterno 21 enero, 2025
    Especies de bacterias en un lago de Wisconsin están en una suerte de "bucle interminable" evolutivo: han crecido rápidamente y regresado abruptamente a su estado inicial, repitiendo una y otra vez ese ciclo, aparentemente en respuesta a estaciones y otros parámetros ambientales que cambiaron drásticamente como consecuencia del cambio climático.
    Pablo Javier Piacente / T21
  • Tendremos un futuro utópico y distópico a la vez. El futuro se adelanta una vez más. 21 enero, 2025
    La nueva edición de la exposición ArtFutura, que se desarrolla en el Palacio Neptuno de Madrid, transmite un mensaje claro: la Inteligencia Artificial Generativa no es una amenaza para el arte, sino una nueva herramienta que expande los límites de nuestra creatividad. Sin miedo.
    Alejandro Sacristán (enviado especial T21)
  • Una interfaz cerebro-ordenador permite a una persona con parálisis operar un helicóptero virtual 21 enero, 2025
    La interfaz cerebro-ordenador puede permitir a las personas con parálisis interactuar con otros, participar en trabajos remotos y disfrutar de actividades recreativas: un implante colocado quirúrgicamente en una persona con parálisis en las cuatro extremidades proporcionó un nivel de control sin precedentes sobre un cuadricóptero virtual, solo pensando en el movimiento de los dedos para […]
    Redacción T21
  • Una abeja robótica rompe los récords de polinización y hace acrobacias en el aire 20 enero, 2025
    Un insecto-robot que simula a una abeja y pesa menos de un gramo, aletea con la misma eficacia que los insectos en la naturaleza y fue diseñado para la polinización artificial: podría sentar las bases para una producción agrícola realizada totalmente es espacios interiores. El avance permitiría cultivar frutas y verduras dentro de un almacén […]
    Pablo Javier Piacente / T21
  • Nuevos hallazgos reafirman el origen genético de la depresión 20 enero, 2025
    Un nuevo estudio señala los "genes de la depresión" en todas las etnias: se trata de 239 factores de riesgo genéticos para la depresión que inciden en todas las principales poblaciones mundiales. Esto permitirá a los científicos predecir por primera vez el riesgo de depresión independientemente del origen étnico de cada persona.
    Pablo Javier Piacente / T21
  • Doctor Manuel Corpas: un viaje alucinante a través de la Genómica y la Bioinformática 20 enero, 2025
    El científico español Manuel Corpas ha sido pionero en compartir en Internet la base genética de su familia con la finalidad de descubrir hasta qué punto los genomas influyen en nuestras elecciones de vida. Ahora está construyendo una red internacional de investigación en torno a los genomas de diversidad latinoamericanos para descubrir cómo la migración […]
    Alejandro Sacristán/T21