Tendencias21

Stephen Hawking (y otras 16.000 personas) contra los ‘robots asesinos’

Las armas completamente autónomas aún no son una realidad, pero casi. Han sido bautizadas como ‘robots asesinos’, y se cree pueden ser la causa de una nueva y terrible revolución armamentística. Ahora, más de 16.000 expertos en Inteligencia Artificial y otras ramas de la ciencia (entre ellos, Hawking o Steve Wozniak) piden a los Gobiernos en una carta abierta que no las desarrollen. Por Yaiza Martínez.

Stephen Hawking (y otras 16.000 personas) contra los 'robots asesinos'

Esta semana se ha hecho pública una carta abierta firmada por más de 16.000 personas, la mayoría de ellas investigadores de Inteligencia Artificial y robótica, en la que se pide la prohibición de armas autónomas capaces «de seleccionar y atacar objetivos sin intervención humana alguna».

La presentación de la carta fue realizada aprovechando la inauguración de  la Conferencia de Inteligencia Artificial (IJCAI) que se celebra entre el 25 y el 31 de julio en Buenos Aires (Argentina).

Entre sus firmantes están el célebre astrofísico Stephen Hawking, el famoso director general del fabricante de coches eléctricos TeslaElon Musk; el lingüista estadounidense Noam Chomsky o el cofundador de Apple, Steve  Wozniak. El documento constituye un nuevo aviso de los peligros potenciales de la inteligencia artificial (IA) aplicada al terreno militar, según Le Monde. 

Máquinas soldado y helicópteros selectivos

Pero, ¿qué peligrosas máquinas señalan los expertos como temibles? Por ejemplo, los  cuadricópteros o quadcopters armados (un tipo de helicópteros con cuatro hélices), capaces de buscar y eliminar a personas que cumplan con ciertos criterios predefinidos, o las máquinas para sustituir a soldados humanos en los campos de batalla.

Según los firmantes de la carta abierta, la tecnología de Inteligencia Artificial (IA) ha llegado a un punto en que permite el desarrollo de este tipo de sistemas, y hay mucho en juego, consideran, pues las armas autónomas se han descrito ya como la tercera revolución bélica de la humanidad, tras la pólvora y las armas nucleares.

«La pregunta clave para la humanidad actual es si desea iniciar una carrera mundial de armas de IA o evitar que esta se inicie. Si alguna potencia militar sigue adelante con el desarrollo de armas de IA, será prácticamente inevitable que esa carrera mundial de armas se produzca. El punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana. A diferencia de las armas nucleares, las armas autónomas no requieren de materias primas costosas o difíciles de obtener, por lo que se convertirán en armas ubicuas y baratas, que todos los poderes militares podrán producir en masa. Sólo será cuestión de tiempo que (estas armas) aparezcan en el mercado negro y caigan en manos de terroristas, dictadores que deseen controlar mejor a su población, de señores de la guerra que deseen perpetrar limpiezas étnicas, etc. Las armas autónomas son ideales para objetivos tales como asesinatos, la desestabilización de países o el sometimiento de poblaciones  matando selectivamente a grupos étnicos particulares. Por ello, creemos que una carrera de armas IA no resultarábeneficioso para la humanidad», escriben los especialistas.

El peligro de la impunidad

Los autores de la presente carta hablan en realidad de un futurible, porque las armas completamente autónomas como tal aún no existen. Sin embargo, están cada vez más cerca, pues sí que existen ya, por ejemplo, sistemas «semiautónomos», como los aviones no tripulados capaces de despegar, volar y aterrizar sin dirección humana alguna.

El pasado mes de abril, delegados de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales se reunieron en Ginebra (Suiza) para hablar sobre estas armas completamente autónomas (que han sido bautizadas como ‘robots asesinos’) y sus potenciales peligros.

Con motivo de esta reunión, la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard y la organización Human Rights Watch publicaron entonces el informeMind the Gap: The Lack of Accountability for Killer Robots” (“¡Cuidado con la brecha!: La falta de rendición de cuentas de los robots de combate”), en el que se señala el riesgo de que programadores, fabricantes y personal militar queden exentos de toda responsabilidad penal por las muertes que podrían ocasionar estas armas, por lo que es necesario un tratado internacional de prohibición de su fabricación.

“El vacío en la rendición de cuentas significa que no hay disuasión para futuros delitos, ni reparación para las víctimas, ni ninguna condenación social del responsable”, ha señalado en un comunicado de Human Rights Watch Bonnie Docherty, investigadora principal de la división de Armas de la organización y autora principal del informe.

“Los numerosos obstáculos a la justicia que afrontan las potenciales víctimas demuestran por qué necesitamos con urgencia una prohibición de las armas completamente autónomas”, añade Docherty.

Evitar un escenario oscuro

En 2007, ya se alertó de la posibilidad de que el hecho de que se pierda el control sobre la inteligencia artificial armada pueda llevarnos a un escenario bastante oscuro. Lo hizo un equipo internacional de científicos y académicos pertenecientes a EURON (EUropean RObotics research Network). Estos especialistas elaboraron además un prototipo de “código de ética” para los robots.

Entre sus recomendaciones se destacaba la necesidad de asegurarse el control de los humanos sobre los robots, la prevención de su utilización nociva o ilegal, la protección de los datos que éstos obtengan y el seguimiento exhaustivo de su actividad. Las recomendaciones actuales, como vemos, son aún más radicales: la prohibición absoluta de este uso bélico de la tecnología.

RedacciónT21

Hacer un comentario

RSS Lo último de Tendencias21

  • Descubren una extraña combinación de minerales en las muestras lunares de la misión Chang'e-5 de China 9 febrero, 2024
    Los minerales antiguos y nuevos identificados en las muestras lunares traídas por la misión Chang'e-5 de China están ayudando a los científicos a comprender mejor la historia de la Luna: ahora, los especialistas han descubierto más propiedades del sexto nuevo mineral lunar, llamado Changesite-(Y). Además, otros compuestos hallados, la seifertita y la stishovita, pueden coexistir […]
    Pablo Javier Piacente
  • Los robots que atienden a pacientes llegan a los hospitales 9 febrero, 2024
    Robots diseñados para brindar comodidad a los pacientes de edad avanzada y aliviar su ansiedad, han sido probados con éxito en un hospital de París: saludan, responden a preguntas, comprenden conversaciones grupales y apoyan las tareas de enfermería.
    Redacción T21
  • Una pequeña luna de Saturno parecida a la “Estrella de la Muerte” de Star Wars contiene un océano oculto 8 febrero, 2024
    Por debajo de la superficie repleta de cráteres de Mimas, una de las lunas más pequeñas de Saturno, se esconde un océano global de agua líquida de reciente formación. El satélite posee tan sólo unos 400 kilómetros de diámetro y presenta un notable parecido con la “Estrella de la Muerte”, una estación espacial imperial que […]
    Pablo Javier Piacente
  • Logran controlar un objeto virtual con la mente durante un sueño lúcido 8 febrero, 2024
    Un grupo de participantes en un nuevo estudio científico logró manejar un vehículo virtual a través de un avatar únicamente con su mente, mientras sus cerebros permanecían en la fase REM del sueño. Además de profundizar en los misterios de la consciencia humana, la innovación podría facilitar el acceso a nuevos desarrollos tecnológicos, como un […]
    Pablo Javier Piacente
  • Un proyecto global trabaja para crear de forma colaborativa un cerebro robótico general 8 febrero, 2024
    El auge de la inteligencia artificial generativa impulsa un proyecto global que trabaja para crear un cerebro robótico general, capaz de generar androides como los que hemos visto hasta ahora solo en la ciencia ficción. Pero es cuestión de tiempo que convivamos con ellos en perfecta armonía. Ya no es una utopía.
    Eduardo Martínez de la Fe
  • La IA está capacitada para resolver dilemas morales cuando conduce vehículos autónomos 8 febrero, 2024
    Los sistemas de IA muestran significativas similitudes éticas con las reacciones humanas ante dilemas morales, lo que los acreditan para conducir vehículos autónomos tal como lo harían las personas.
    Redacción T21
  • Los huracanes se están volviendo tan fuertes que ya no existen categorías para clasificarlos 7 febrero, 2024
    Cinco tormentas en la última década tuvieron velocidades de viento que pertenecen a una hipotética categoría 6 en la escala de huracanes Saffir-Simpson: el fenómeno obligaría a los científicos a crear una nueva clasificación, capaz de reflejar la virulencia de los huracanes en la actualidad. Las causas principales del fenómeno tienen su origen en el […]
    Pablo Javier Piacente
  • Un asteroide habría explotado sobre la Antártida hace unos 2,5 millones de años 7 febrero, 2024
    Un asteroide se desintegró sobre el continente antártico hace aproximadamente 2,5 millones de años: la evidencia proviene de un análisis químico de más de 100 pequeños trozos de roca extraterrestre, que se han preservado dentro de las enormes capas de hielo. Hasta el momento, solo se conocen otros dos eventos de explosiones aéreas antiguas en […]
    Pablo Javier Piacente
  • Crean la primera niña de inteligencia artificial del mundo 7 febrero, 2024
    La primera niña IA del mundo ha sido creada por científicos chinos, que la han dotado de emociones e intelecto y de la capacidad de aprender de forma autónoma. Se comporta como si tuviera tres o cuatro años y representa un avance significativo para el campo de la inteligencia artificial general.
    Redacción T21
  • Oponerse a la regulación de los pesticidas no es la solución al problema de los agricultores 7 febrero, 2024
    Los agricultores que se movilizan en España y Europa se oponen con firmeza a las nuevas regulaciones europeas en materia de pesticidas, lo que representa una amenaza mayor para la salud pública que tener una central nuclear al lado de casa: estos químicos han costado miles de vidas y enfermos crónicos, al tiempo que han […]
    Eduardo Costas | Catedrático de la UCM y Académico de Farmacia