Lograr los objetivos planteados al menor coste en vidas. En las últimas décadas, las guerras se plantean de esta forma. Y el Pentágono lo está pensando: usar drones y robots será clave en los conflictos del futuro.
PUBLICIDAD
De acuerdo con Wired, el Departamento de Defensa de Estados Unidos estudia utilizar Inteligencia Artificial basándose en órdenes emitidas por un humano. Para esto realizaron pruebas en el sur de Seattle, en agosto del año pasado.
Varias docenas de aviones no tripulados militares y robots similares a tanques se desplegaron en misión. El objetivo de la prueba era encontrar sospechosos de terrorismo, y para ello se les dio una orden general de hallar y eliminar combatientes enemigos.
Tanto los drones como los robots con ruedas eran del tamaño de una mochila grande.
La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, por sus siglas en inglés) estuvo a cargo de la maniobra de prueba, en la que los robots utilizaban radios en lugar de armas.
Fueron varios los algoritmos utilizados: unos para idear planes de ataque, otros para rodear edificaciones y unos más para vigilar. También para identificar combatientes enemigos y para destruir objetivos con explosivos simulados.
Drones y robots, la visión del Pentágono
Wired cita al general John Murray, del Comando Futurista del Ejército de Estados Unidos, hablando sobre el uso de robots en los conflictos. El militar plantea que la Inteligencia Artificial suplantará a los humanos en las tomas de decisiones en caliente.
PUBLICIDAD
“¿Está dentro de la capacidad de un humano elegir cuáles son los sistemas comprometidos y luego tomar 100 decisiones individuales? ¿Es necesario tener un humano?”, se preguntó.
La meta es que la Inteligencia Artificial esté a cargo de más objetivos potenciales identificativos, mientras que los seres humanos tomen decisiones de alto nivel.
“Es uno de los debates más interesantes que se avecinan, y aún no se ha resuelto”, expresó el teniente general Samuel Clinton Hinote, subjefe del gabinete de estrategia, integración y requerimientos del Pentágono.
Los drones son los elementos más utilizados en las guerras modernas, y sin embargo siempre deben ser manejados por seres humanos. No obstante, hay una variante de autonomías de armas que utiliza Estados Unidos desde hace varias décadas: el de los misiles que identifican y atacan a los enemigos en un área determinada.
Esto, sin duda alguna, se ampliará con el paso de los años.
La oposición a las armas autónomas
Pero no todos están a favor del uso de Inteligencia Artificial como armamento. En 2018, como lo recuerda Wired, Google enfrentó protestas de empleados tras suministrar tecnología de IA a la Fuerza Aérea a través del Proyecto Maven.
Max Tegmark, profesor del MIT y cofundador del Future of Life Institute, es lapidario: “Las armas autónomas letales lo suficientemente baratas como para que todo terrorista pueda permitírselas no son de interés para la seguridad nacional de Estados Unidos. Las armas autónomas deben ser estigmatizadas y prohibidas como armas biológicas”.
“Creo que (de seguir con el proyecto) algún día lo lamentaremos aún más de lo que lamentamos haber armado a los talibanes”, en alusión a los guerreros afganos que combatieron a la Unión Soviética en los 70 y 80, actualmente enemigos de Estados Unidos.