Colombia y los robots asesinos

La pesadilla Terminator está cerca de convertirse en realidad, y una campaña mundial para prohibir los robots que – sin intervención humana – deciden a quién matar, quiere detener esta atrocidad.

Quitarnos el empleo es apenas lo más gracioso que pueden hacernos los robots. Siete países están construyendo máquinas automatizadas basadas en Inteligencia Artificial, especializadas en matar personas y elegir sus blancos sin intervención humana. No es un capítulo de Black Mirror – aunque parece – sino una realidad tenebrosa, y una liga mundial quiere detener esta amenaza. La campaña “Stop Killer Robots” (Detener los robots asesinos) llegó a Colombia, por iniciativa de la Campaña Colombiana antiminas y la Universidad Jorge Tadeo Lozano, que quieren sensibilizar al país en relación con un tema que ya no es asunto de Hollywood.

Roser Martínez, de la Universidad Autónoma de Barcelona, promotora de la campaña mundial contra los robots asesinos

Los enjambres de microdrones Perdix o el robot SGR-A1, entre otros, ya han sido probados y están en operación. Pueden elegir sus blancos, tomar decisiones y funcionar en modo autónomo. El Pentágono probó 103 microdrones Perdix en marzo de 2016, y estos mostraron un comportamiento sorprendente: tomaron decisiones colectivas e hicieron formación adaptativa del vuelo, tal como los enjambres en la naturaleza. El enjambre no tiene un líder, sino que cada Perdix se comunica con los demás y colabora en la inteligencia colectiva; si un dron sale del enjambre, este se reorganiza, así que una misión no se ve afectada por la pérdida de algunos de sus miembros. Este sistema fue desarrollado por investigadores del MIT, para el Departamento de Defensa norteamericano.

SGR-A1, creada por Samsung para el ejército coreano, vigila la frontera con Corea del Norte y tiene la capacidad de disparar por decisión propia, guiada por un algoritmo, o de no hacerlo si el blanco levanta las manos en señal de rendición. El secretario general de Naciones Unidas, Antonio Guterres, dijo el año pasado ante la Asamblea General: “Digámoslo como es; la perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es moralmente repugnante”.

Los defensores de estas armas tienen sus argumentos: no habrá perdidas de soldados, ni daños colaterales, no se cansan, y en el cálculo costo beneficio son más económicas que mantener un soldado y que indemnizar a su familia si muere.

“Es escalofriante pensar que se pueda subcontratar la matanza de humanos a un robot; la potestad de matar no puede transferirse a una máquina. El derecho no admite eso”, explica la profesora Roser Martínez, de la Universidad Autónoma de Barcelona y una de las líderes mundiales de la campaña que busca prohibir el desarrollo de este tipo de armamento. Para ella, que asesora al Parlamento Europeo en esta materia, los Estados deben mantener el control humano sobre el uso de la fuerza, pues de lo contrario podría desatarse una serie de eventos catastróficos incontrolados.

La campaña Stop Killer Robots insta a los Estados a prohibir las armas totalmente autónomas, es decir, sin control humano. Pone énfasis en la prohibición, no en la regulación, y rechaza los “mercenarios algorítmicos” que pueden llevar al fin de la humanidad, explica Martínez.

¿Por qué Colombia debe interesarse en este tema? Podría pensarse que es un problema lejano para nosotros. Pero en Naciones Unidas ya se está discutiendo, y los promotores en el país quieren que Colombia tome una postura. “Después de tantos años de conflicto y ser un país con el mayor número de minas antipersonales, Colombia puede liderar ese tema; las minas son pioneras en el segmento de armas automatizadas que reemplazaban soldados para cuidar una guarnición militar”, explica el profesor Carlos Andrés Gómez, director del programa de Derecho de la Universidad Jorge Tadeo Lozano.

Hay una diferencia entre armas automatizadas y autónomas. Las minas eran lo primero y los robots con Inteligencia Artificial son lo segundo. Pero las minas antipersona vienen a ser como el antepasado directo de estas futuras armas letales inteligentes. No es que ya circulen por las calles máquinas tipo Skynet como las que vimos en la saga Terminator, disparando contra toda forma de vida que detecten. ¿O sí? La compañía rusa Kalashnikov, fabricante del legendario fusil de asalto AK-47, exhibió el año pasado un gigantesco soldado humanoide que bautizó “Igorek”, y aunque es todavía un prototipo en desarrollo, la demostración pública causó nerviosismo. Cuatro metros de altura y 4,5 toneladas de peso en una máquina que será utilizada en combate y que estará lista en 2020, según anunció el fabricante.

El gobierno británico tiene a Taranis (bautizado así en honor al dios celta del trueno), un avión de combate autónomo, desarrollado por el contratista de defensa BAE Systems Military Air, que puede ejecutar misiones de vigilancia, espionaje, transporte, y ataques en territorio enemigo. Y es casi indetectable por los radares. Israel tiene a “Harpy” (Harpía), un enorme misil “merodeador”, que puede permanecer hasta nueve horas husmeando señales de radar enemigas y puede atacarlas autónomamente una vez las encuentre. El fabricante es Aerospace Industries de Israel y ha vendido estás máquinas a China, India, Corea del Sur, Turquía y, desde luego, al gobierno israelí. El Pentágono tiene también a “SeaHunter”, un submarino de 40 metros de longitud que puede operar hasta por tres meses sin tripulación; y Francia está desarrollando a “Neuron”, una máquina autónoma voladora de combate, con capacidades de ataque y comunicación con otras máquinas de su tipo.

En Europa toma fuerza la campaña “Stop Killer Robots”

Los promotores de la campaña tienen muchas preocupaciones. El peligro de los robots asesinos no se limita a un contexto de guerra, sino al a vida civil, para uso entre ciudadanos. Roser Martínez advierte que las armas podrían pasar a manos privadas, tanto en países en donde la autodefensa armada es un derecho, como en Estados Unidos, o una realidad, como en Colombia, y podrían ser utilizadas por grupos terroristas, Estados corruptos, milicias armadas y ciudadanos que creen necesario utilizarlas. En Estados Unidos, país que además se apone a la prohibición de los robots autónomos para uso militar, circulan 300 millones de armas de defensa personal, en manos de los ciudadanos.

Los cuestionamientos éticos saltan a la vista. No está probado que puedan distinguir a un soldado enemigo de uno propio. ¿Quién responderá por ataques contra civiles? ¿El comandante, el programador, el fabricante, el gobierno o el propio robot? De ahí la urgencia de lograr una convención mundial que prohíba el desarrollo de estas monstruosidades, tal como se logró ya con la prohibición de las bombas de racimo, de las minas antipersona y otras cinco armas letales más.

A la fecha, 32 países se han pronunciado en favor de negociar un tratado internacional sobre robots asesinos. “las máquinas carecen de moralidad, por esto, no deben tener el poder de decisión sobre la vida o muerte de los humanos”, dijo Christof Heyns, anterior representante especial de la ONU sobre ejecuciones extrajudiciales. Y el profesor Noel Sharkey, presidente del comité internacional para el control de armas robóticas, piensa que se puede detener este peligro “solo si actuamos ahora, antes de que haya demasiada inversión”.

Publicado originalmente en revista SEMANA, edición 1929, abril de 2019

«

»

¿Qué piensas?

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *