Tendencias21
La Ética para las máquinas, nuevo campo de investigación

La Ética para las máquinas, nuevo campo de investigación

Hasta hoy, sólo el Hombre se comprometió a un razonamiento ético, pero ya es hora de incorporarle una dimensión ética a algunas máquinas complejas. Se trata de un nuevo campo de estudio que considera a las máquinas, computadoras y robots, como un tipo de agentes éticos e intenta implementar en ellos facultades morales de toma de decisiones. Dado que las investigaciones científicas y los objetos tecnológicos tienen el poder de afectar a toda la humanidad, las decisiones sobre su curso actual y futuro no deben involucrar únicamente a los científicos, los empresarios y los gobernantes. Es necesario que la mayoría de la gente tenga una participación mucho más activa a fin de fijar los límites adecuados. Por Sergio Moriello.

La Ética para las máquinas, nuevo campo de investigación

La ética es la ciencia que estudia el comportamiento moral del hombre y su accionar. Se relaciona con los propios actos que cada uno realiza, las cuales –a su vez– dependen de los propios valores. No es su función prohibir o aceptar indiscriminadamente, sino permitir el discernimiento –dentro de un determinado contexto– entre lo “correcto” y lo “equivocado”, lo “bueno” y lo “malo”.

Pero quien juzga es siempre, en última instancia, la propia persona. Dentro de una comunidad o una sociedad, la ética consiste en aquellas conductas que tienden a ser preferidas a lo largo de períodos suficientemente largos de tiempo, como para convertirse en una especie de codificación. Por ese motivo, y para cualquier actividad humana, la ética es tan igualmente esencial como la creatividad, el conocimiento profesional o las habilidades [Mulej et al, 2002].

Con respecto a la relación entre la tecnología y la ética, se pueden considerar tres aspectos:
• el uso responsable e irresponsable que algunas personas hacen de los objetos tecnológicos;
• cómo los seres humanos deben de tratar a los objetos tecnológicos complejos; y
• los problemas relacionados con los objetos tecnológicos complejos y su interacción con el ecosistema.

Relaciones tirantes

En cuanto al primer punto, y en general, lo que preocupa no es tanto la tecnología en sí misma, sino la utilización que se puede hacer de ella [Ricard y Xuan Thuan, 2001, p. 27]. Lo que provoca miedo es la velocidad e imprevisibilidad de su avance y, en especial, la posibilidad de que se vuelva incontrolable [Capanna, 2000].

Los objetos tecnológicos son neutros: multiplican las posibilidades humanas tanto para hacer el bien como para hacer el mal. Pero definitivamente no son neutros los impactos que tienen dichos objetos sobre la vida de los individuos y las sociedades.

Es el caso de la energía atómica: ofrece tanto la posibilidad de construir centrales eléctricas (que otorgan luz y calor a grandes ciudades) como la posibilidad de construir bombas (que destruyen esas mismas grandes ciudades). Y es también el caso del robot inteligente y autónomo: si su objetivo principal fuese el de satisfacer al Hombre, sería de valiosa ayuda; pero si su objetivo principal fuese el de satisfacer su propia supervivencia, sería extremadamente peligroso [Fritz, 2007].

Por eso, todo avance es percibido de forma ambivalente: como sublime y, a la vez, nefasto; como maravilloso y, al mismo tiempo, monstruoso. Esto no hace más que revelar las contradicciones intrínsecas de una sociedad escindida entre los tecnófilos y los tecnófobos, entre los que se ufanan por los beneficios que puede brindar el poder tecnológico y los que temen al daño irreparable que puede acarrear su utilización descontrolada.

De todas formas, ya no es posible revertir el inevitable proceso de aceleración tecnológica acaecido en las últimas décadas. Sólo queda como única posibilidad la de tomar adecuadas decisiones a fin de suavizar los peligros que pudiese originar, pero sin renunciar a la multiplicidad de sus ventajas. En otras palabras, no se discute si se utiliza o no la tecnología, sino solamente la forma en que se la va a emplear.

Es responsabilidad del homo sapiens ser mucho más crítico con respecto a lo que hace y por qué lo hace; sólo así podrá –en parte– prever algunas de las consecuencias indeseadas. Cuanto más amplio es su poder, mayor debe ser su sentido de la responsabilidad.

Dado que las investigaciones científicas y los objetos tecnológicos tienen el poder de afectar a toda la humanidad, las decisiones sobre su curso actual y futuro no deben involucrar únicamente a los científicos, los empresarios y los gobernantes. Es necesario que la mayoría de la gente tenga una participación mucho más activa a fin de fijar los límites adecuados. Y, en ese punto, el periodismo de divulgación tiene una responsabilidad fundamental [Dalai Lama, 2006, p. 221, 231/2 y 242].

¿Cómo tratarlas?

Las actuales máquinas inteligentes son simples en extremo; en parte porque son muy “jóvenes”: apenas tienen poco más de medio siglo de existencia. No obstante, su avance arrollador las hará inmensamente más complejas en poco tiempo más. Aunque es posible que retengan el nombre “máquina”, con seguridad serán otra cosa.

Si una máquina puede desarrollar tanto actividades cognitivas como afectivas (emociones), habría que empezar a pensar seriamente sobre qué posición ocupa la máquina. ¿Tendrá el propietario derecho a desenchufarla, o a destruir su programación inteligente? ¿Constituiría esto un asesinato? [Ritchie, 1985, pág. 145] ¿Aunque, una vez “asesinada”, se pudiese reconstruir tan bien como si fuera nueva? ¿Sería este caso un “intento de asesinato”? [Freitas Jr., 1985].

De acuerdo con las leyes vigentes, los robots son simplemente una propiedad inanimada sin derechos ni deberes. No son personas legales (al igual que las máquinas y las computadoras) y no los toma en cuenta el sistema judicial. Sin embargo, se debe recordar que, en algún momento de la historia del Hombre, tampoco fueron considerados como personas legales los negros, los niños, las mujeres, los extranjeros y las empresas [Freitas Jr., 1985].

Si la máquina fuese un robot antropomorfo, si fuese capaz de pensar, de sostener debates interesantes o de hacer nuevos descubrimientos científicos (en suma, si desarrollase habilidades cognitivas), tal vez no habría dudas de que “apagarlo permanentemente” constituiría una especie de asesinato.

Pero, si en vez de ser intelectualmente brillante, ¿qué sucedería si mostrase una gama de emociones equivalentes a las que componen al ser humano promedio? Incluso más, si tuviese la forma de un perro, con un nivel mental equivalente a ese animal y su limitada gama de emociones, ¿sería cruel pegarle, o sería nada más que golpear a piezas metálicas o de plástico? [Storrs Hall, 2000].

¿Chatarra o asesinato?

Por otra parte, el cambiar un robot –ya obsoleto y/o pasado de moda– por un modelo más nuevo y tirarlo como “chatarra”, como se hace con un automóvil o cualquier electrodoméstico, ¿no sería también una especie de asesinato?

Antes de construir humanoides inteligentes, se deberían resolver algunos problemas. De hecho, al momento de diseñarlos se debería tener definido si no es una crueldad producir en masa androides sintientes y luego eliminarlos en “campos de exterminio”.

Actualmente, cualquier robot se considera un bien instrumental; en consecuencia, su propietario puede hacer el uso que quiera… incluso hasta destruirlo. Es probable que, con el tiempo, surja un movimiento tendiente a atenuar los derechos derivados de la propiedad de los androides [Monopoli, 2005].

Incluso puede ser que, algún día, éstos argumenten que son seres conscientes y demanden la igualdad de derechos. Es por eso que, por uno u otro camino, hay quienes afirman que el homo sapiens compartirá el planeta con formas de vida sintética que hasta podrían tener “derechos legales”.

¿Qué tipos de derechos se les debería otorgar y/o negar? ¿Se les pueden aplicar los “derechos humanos”? Si un robot emula perfectamente las características humanas, ¿podría reclamar ser miembro de la especie? No se podría exigirle que tenga un cuerpo físico como el humano, ya que –con ese criterio– se deberían rechazar también a las personas que cuentan con partes artificiales [Lucas, 2006]. ¿Cuál será el lugar que los robots ocupen dentro de la sociedad? ¿Formarán su propia sociedad?

Por otra parte, ¿deberían los robots llevar armas? Si se envía un robot para asesinar a un ser humano, ¿de quién es la culpa: de la máquina, de las personas que la diseñaron, de la empresa que la diseñó, de las personas que la construyeron o de la empresa que la construyó? Asimismo, ¿deberían concedérseles patentes a las máquinas? Si un robot (una computadora o una máquina) inventa una patente, ¿pertenece a su dueño o a él mismo?

Nuevo campo

Con respecto a la ética para las máquinas, se pueden distinguir dos niveles: la “humana” y la “artificial” propiamente dicha [Palmerini, 2004]. La función de la primera es la de restringir quién debe construir y quién debe usar robots. Pero su desarrollo no va parejo con el de la ciencia y la tecnología; en otras palabras, no está en condiciones de seguir el vertiginoso ritmo de las proezas científicas y tecnológicas del ser humano.

En lo referente a los nuevos desarrollos tecnológicos, mucho de lo que –en poco tiempo- será factible, está más relacionado con los cálculos financieros empresariales y con las previsiones políticas y económicas gubernamentales, que con los nuevos descubrimientos o paradigmas científicos [Dalai Lama, 2006, p. 221].

La ética artificial de los robots, o “roboética”, es aquella parte de la ética que se ocupa de los problemas relacionados con los robots y con su interacción con el hombre, los animales, la sociedad, la naturaleza y el mundo [Monopoli, 2005].

Se trata de un nuevo campo de estudio que considera a las máquinas, computadoras y robots como un tipo de agentes éticos e intenta implementar en ellos facultades morales de toma de decisiones [Allen, Wallach y Smit, 2006] [Moor, 2006].

La idea es otorgarles un determinado conjunto de reglas o guías de comportamiento universal, un “código de ética”, a medida que se vayan haciendo cada vez más complejas, a fin de que sus acciones no se aparten mucho de la normas humanas (ya que se tornaría imposible controlarlos) [Proença, 2001].

Hasta hoy, sólo el Hombre se comprometió a un razonamiento ético; ya es hora de incorporarle una dimensión ética a algunas máquinas complejas [Anderson y Leigh Anderson, 2006].

Otros agentes éticos

Es enfoque se sustenta en el hecho de que existen casos de otras clases de agentes éticos. Por ejemplo, los perros tienen un sentido de lo que es correcto y lo que es incorrecto. Incluso, los niños son una forma distinta de agente ético: tienen limitados derechos y responsabilidades, y los adultos tienen deberes para con ellos.

Es más, hay una variación continua de agente ético que va desde el bebé hasta el adolescente [Storrs Hall, 2000]. Sin embargo, la mayoría de las personas establece una frontera divisoria para la ética entre lo que considera consciente y lo que considera no-consciente.

Por ejemplo, si se piensa que una serpiente no es consciente, no se harán muchos cuestionamientos en caso de tener que matarla. De igual manera, si se piensa que una máquina no es consciente, se tendrá mucho menos escrúpulo en lastimarla.

Recientemente un equipo internacional de científicos y académicos –pertenecientes a EURON (EUropean RObotics research Network)– elaboró un prototipo de “código de ética”. A grandes rasgos, sus recomendaciones son las siguientes:

• Asegurarse el control de los humanos sobre los robots.
• Prevenir su utilización nociva o ilegal.
• Proteger los datos obtenidos por los robots.
• Rastrear y grabar la actividad de los robots.
• Brindar una identificación única a cada robot.

Bibliografía

1. Allen, Colin; Wallach, Wendell y Smit, Iva (2006): Why Machine Ethics? IEEE Intelligent Systems, julio/agosto, Vol. 21, N° 4, p. 12-17.

2. Anderson, Michael y Leigh Anderson, Susan (2006): Machine Ethics. IEEE Intelligent Systems, julio/agosto 2006, Vol. 21, N° 4, p. 10-11.

3. Capanna, Pablo (2000): ¿Se puede orientar la tecnología? Página 12, Suplemento Futuro, 4 de marzo.

4. Dalai Lama (2006): El universo en un solo átomo. Buenos Aires, Editorial Grijalbo.

5. EURON

6. Freitas, Robert (Jr.) (1985): The Legal Rights of Robots. Student Lawyer, Nº 13, enero, p. 54-56.

7.Fritz, Walter (2007): Sistemas Inteligentes y sus Sociedades. Enero (última actualización).

8. Lucas, Chris (2006): Alien Consciousness – Philosophical Problems Version 4.83, mayo.

9. Monopoli, Antonio (2005): Roboetica. Sitio italiano.

10. Moor, James (2006): The Nature, Importance, and Difficulty of Machine Ethics. IEEE Intelligent Systems, julio/agosto, Vol. 21, N° 4, p. 18-21.

11. Mulej, Matjaž; Kajzer, Stefan; Ženko, Zdenka y Potocan, Vojko (2002): Ethics of interdependence and systems thinking. Proceedings on IDIMT-2002, p. 97/117.

12. Palmerini, Chiara (2004): Diamo una morale ai robot. Il manifesto, 18 de febrero.

13. Proença, Ana (2001): Conversando sobre Inteligência Artificial. Lisboa, Revista Intelectu, Nº 5, febrero.

14. Ricard, Matthieu y Xuan Thuan, Trinh (2001): El infinito en la palma de la mano. Barcelona, Editorial Urano.

15. Ritchie, David (1985): El Cerebro Binario. Barcelona, Editorial Sudamericana-Planeta.

16. Storrs Hall, John (2000): Ethics for Machines.

sergiomoriello@hotmail.com es Ingeniero en Electrónica, Postgraduado en Periodismo Científico y en Administración Empresarial y Magister en Ingeniería en Sistemas de Información. Lidera GDAIA (Grupo de Desarrollo de Agentes Inteligentes Autónomos, UTN-FRBA) y es miembro activo de ALAS (Asociación Latinoamericana de Sistemas) y de GESI (Grupo de Estudio de Sistemas Integrados). Es autor de los libros Inteligencias Sintéticas e Inteligencia Natural y Sintética.

Sergio Moriello

Hacer un comentario

RSS Lo último de Tendencias21

  • Sigue la búsqueda del cerebro de Albert Einstein 3 noviembre, 2022
    Partes del cerebro de Einstein, dividido luego de su fallecimiento en 1955, siguen desaparecidas: su hallazgo sería crucial para determinar finalmente si el cerebro del genial físico era diferente al del resto de los mortales y por qué.
    Pablo Javier Piacente
  • Un nuevo cohete chino fuera de control amenaza a la Tierra 3 noviembre, 2022
    China permitirá una vez más que un cohete fuera de control caiga del cielo, concretamente este 4 de noviembre: no es la primera vez que una etapa del cohete Long March 5B puede caer sobre un área poblada. La estructura, de 21 toneladas métricas, ha comenzado un reingreso descontrolado y potencialmente peligroso a la atmósfera […]
    Pablo Javier Piacente
  • La reproducción en ratones responde a criterios de calidad neuronal y la agresión a la cantidad 3 noviembre, 2022
    El cerebro del ratón dispone de una puerta que regula la activación de neuronas según se precise aparearse con una hembra o atacar a otro macho: en el primer caso opta por la calidad, en el segundo por la cantidad de neuronas implicadas.
    Eduardo Martínez de la Fe
  • Explican científicamente por qué los gatos tienen siete vidas 3 noviembre, 2022
    Una combinación de la reducción de la velocidad de aterrizaje debido a la aerodinámica, de las propiedades de resorte de sus patas y de la relación entre la masa corporal y el diámetro de sus huesos, le dan al gato las siete vidas que se le atribuyen.
    N+1/T21
  • Los colores que vemos viven en nuestros ojos, nuestro cerebro, nuestra cultura y el entorno 2 noviembre, 2022
    El color está en los ojos y el cerebro del espectador: la forma en que vemos y describimos los tonos varía ampliamente entre las personas por múltiples razones. Según un nuevo estudio, estas variaciones están determinadas por variables como nuestra estructura ocular individual, la forma en que nuestro cerebro procesa las imágenes, qué idioma hablamos […]
    Pablo Javier Piacente
  • Los agujeros negros en estado cuántico rompen los límites de lo extraño 2 noviembre, 2022
    El Universo nos está revelando que siempre es más extraño, misterioso y fascinante de lo que la mayoría de nosotros podríamos haber imaginado: un nuevo estudio ha descubierto que los agujeros negros, afectados por el fenómeno de superposición cuántica, pueden tener masas muy diferentes al mismo tiempo: extrapolando esta idea a una persona, significaría que […]
    Pablo Javier Piacente
  • Pistas químicas resuelven uno de los misterios de los violines Stradivarius 2 noviembre, 2022
    Unas pistas químicas han resuelto uno de los misterios que convierten a los Stradivarius en los mejores violines del mundo: la madera contiene un tratamiento a base de proteínas que podría influir en el sonido del instrumento, dándole su inconfundible claridad.
    CERIC/T21
  • Las matemáticas descubren cuál es la mejor defensa para un equipo de fútbol 2 noviembre, 2022
    Físicos argentinos han desarrollado un modelo informático fabricado con imágenes reales de partidos de fútbol que calcula la mejor defensa para un equipo: lo que marca la diferencia no es la cooperación para los pases, sino la distancia entre los jugadores.
    N+1/T21
  • Identifican en Marte el impacto de meteorito más grande registrado en el Sistema Solar 1 noviembre, 2022
    Un seismo que sacudió el planeta rojo en 2021 fue el resultado del impacto de un meteorito masivo, según revelaron los científicos de la NASA. Se trata del impacto de meteorito más grande registrado hasta hoy en todo el Sistema Solar: el cráter producido mide 150 metros de ancho y 21 metros de profundidad. Al […]
    Pablo Javier Piacente
  • Descubren un enorme asteroide potencialmente peligroso para la Tierra 1 noviembre, 2022
    Un asteroide cercano y potencialmente peligroso es el más grande identificado en los últimos 8 años, según los investigadores. Con casi un kilómetro y medio de ancho, desarrolla una órbita que, en el futuro, podría acercarlo lo suficiente a la Tierra como para plantear un grave problema y poner a prueba los sistemas de defensa […]
    Pablo Javier Piacente