martes, 28 de julio de 2015

Armas autónomas: carta abierta de investigadores en Inteligencia Artificial y Robótica

Esta carta abierta, firmada por un centenar de pensadores, incluyendo algunos tan conocidos como Stephen Hawking, Noam Chomsky, Steve Wozniak y Daniel C. Dennett, va a ser leída hoy en la apertura de la 24 International Joint Conference on Artificial Intelligence (IJCAI) que se celebra en Buenos Aires.


En ella se pide la prohibición de las armas autónomas de ataque sin control humano significativo, y se advierte de que estamos a pocos años de poder despegar sistemas autónomos en el campo de batalla, lo que algunos expertos han descrito como la tercera revolución en sistemas de guerra, tras la pólvora y las armas nucleares.
Este es el texto, traducido del original en inglés:

"Armas autónomas: carta abierta de investigadores en Inteligencia Artificial y Robótica.

Las armas autónomas seleccionan y atacan objetivos sin intervención humana. Incluyen, por ejemplo, multicópteros capaces de encontrar y eliminar personas que posean criterios predefinidos pero no incluyen los misiles de crucero o los drones manejados por control remoto, ya que tras ellos hay humanos que toman decisiones. La Inteligencia Artificial (AI) ha alcanzado un punto en que el despliegue de este tipo de sistemas será factible (técnica y quizá también legalmente) en pocos años, no en decenios, y hay mucho en juego: las armas autónomas se han calificado como la tercera revolución en sistemas de guerra, tras la pólvora y las armas nucleares.

Se ha argumentado mucho a favor y en contra de las armas autónomas, por ejemplo señalando que la sustitución de soldados humanos por máquinas reduce las bajas, pero también que reduce el umbral para desencadenar una batalla. La pregunta crucial para la humanidad es si empezar una carrera armamentística global de AI o evitar que se inicie.

Si una potencia militar impulsa el desarrollo de las armas AI, es inevitable esa carrera armamentística, y el destino de dicha trayectoria tecnológica es obvio: las armas autónomas serán los Kalashnikovs del mañana.

A diferencia de las armas nucleares, no requieren materias primas caras o escasas, así que serán unas armas ubicuas y producidas en masa para cualquier poder militar. Solo será cuestión de tiempo que aparezca un mercado negro y que estén en manos de terroristas, de dictadores con ansias de aumentar el control sobre la población, de señores de la guerra con la intención de perpetrar limpiezas étnicas... Las armas autónomas son ideales para tareas como asesinatos, desestabilización de naciones, sometimiento de poblaciones y asesinato selectivo de miembros de un determinado grupo étnico. Por eso creemos que una carrera militar de armas AI no puede ser beneficiosa para la humanidad. Hay muchas formas en que la AI puede hacer que los campos de batalla sean más seguros para las personas, especialmente para los civiles, sin crear muevas herramientas para matar.

De la misma manera  que la mayoría de químicos y biólogos no están interesados en el desarrollo de armas químicas o biológicas. la mayoría de investigadores en AI no lo están en construir armas AI ni en que otros lo hagan, desacreditando su campo de trabajo y creando una corriente pública contra la AI que cortaría el acceso a futuros beneficios para la sociedad. De hecho, químicos y biólogos han apoyado masivamente los acuerdos internacionales que han conducido a la prohibición de armas químicas y biológicas, al igual que la mayoría de físicos ha apoyado los tratados de prohibición de armas espaciales nucleares y armas cegadoras láser.

En resumen, creemos que la AI tiene un enorme potencial para beneficiar a la humanidad de muchas maneras, y que ese debe ser el propósito de este campo de estudio. El comienzo de una carrera armamentística AI es una mala idea, y debe ser impedido por la prohibición de las armas autónomas de ataque sin control humano significativo".

Fuente Future of Life, vía io9.

2 comentarios:

  1. ¿Has leído "Tesla y la conspiración de la luz" de Miguel Delgado? Es impresionante cómo la ciencia ficción (la imaginación en general) se puede adelantar... aunque no tanto, porque la ciencia también lleva buen ritmo

    ResponderEliminar