La llegada de los robots asesinos

viernes, 10 de abril de 2015
MÉXICO, D.F. (apro).- La próxima semana un panel de expertos de la Organización de las Naciones Unidas (ONU) discutirá sobre los problemas éticos y legales que generan las “armas autónomas letales” (AAL), que los científicos castrenses de más de 40 países afinan en sus laboratorios. El objetivo del panel: llegar a largo plazo a un acuerdo sobre la regulación de las AAL en el marco de la Convención sobre Armas Clásicas. Un “robot asesino” –otro apodo de las AAL- es una máquina equipada con armas letales, la cual “una vez activada, puede elegir y atacar objetivos sin intervención de un operador humano”. En otras palabras, los sensores de una máquina permiten a su computadora identificar y analizar un objetivo, y a partir de sus observaciones decidir si lo destruye o no. Según el programa, los expertos –científicos, diplomáticos, activistas y militares-- reflexionarán sobre la propia definición de las AAL, así como sobre el uso de máquinas letales no dotadas de emociones –“miedo, sentido del honor y de la dignidad, compasión y amor”-- en situaciones de combate. Luego hablarán de las consecuencias que implica el grado cada vez más importante de la autonomía de las máquinas sobre el derecho internacional humanitario –también llamado “derecho de la guerra”— y discutirán sobre los problemas fundamentales, morales y éticos, del uso de estas máquinas. Desde finales de los años 2000, organizaciones de la sociedad civil, como Human Rights Watch (HRW) o Amnistía Internacional (AI), se alarmaron ante la inminencia del uso de la tecnología letal autónoma: en octubre de 2012, nueve de ellas lanzaron la campaña “Detener a los robots asesinos”, con el fin de presionar a los países para prohibir estas máquinas. “Las armas totalmente autónomas no existen todavía, pero la tecnología se está moviendo hacia allá, y precursores ya están siendo utilizados o desarrollados”, advirtió HRW en un informe que publicó el pasado miércoles 8 en colaboración con el Programa de Derechos Humanos de la Escuela de Derecho de Harvard. Hasta ahora, los sistemas autónomos que dieron a conocer los militares en el debate sobre las AAL toman la forma de sistemas de defensa –como el Domo de Acero israelí, que detecta e intercepta cohetes, al igual que el Phalanx, de la compañía estadunidense Raytheon--, así como de “misiles” autónomos como el Harpy israelí, que sobrevuela vastas zonas y se impacta contra estaciones de radares terrestres cuando detecta una de ellas. Según un artículo publicado en Foreign Affairs el año pasado, la empresa estadunidense Northop Grumman está desarrollando un avión no tripulado autónomo, el X-47B, el cual “puede seguir un vuelo preprogramado” y entrará en servicio en 2019. El ejército surcoreano instaló por su parte el robot Techwin SGR-A1 –elaborado por Samsung-- en la zona fronteriza desmilitarizada con Corea del Norte, el cual “tiene la habilidad de detectar, advertir y proveer de un fuego supresor contra invasores”, indicó la página Globalsecurity.org. Como advertencia, las organizaciones favorables a la prohibición de estas armas suelen recordar un caso ocurrido en 1987, en medio de la guerra entre Irak e Irán, cuando el sistema AEGIS del buque de guerra estadunidense Vincennes se activó y envió un misil que derrumbó un avión de línea iraní. Vacío legal Además de los problemas éticos y morales que implican el uso de las AAL –esencialmente sobre el hecho de que una computadora cometa un homicidio de manera intencional--, las organizaciones denuncian el vacío legal que envuelve el tema, ya que el derecho, tanto criminal como humanitario, se fundamenta en la responsabilidad individual. “Inculpar a un homicida sirve como función retributiva: da a la víctima la satisfacción de que la parte culpable fue condenada y castigada por el daño que perpetró, evita generar un fenómeno de odio colectivo y promueve la reconciliación”, aseveró HRW. Pero, señala, “una AAL no podrá ser inculpada de actos criminales que cometió porque le faltaría la intencionalidad”. Durante una charla que ofreció en la Facultad de Derecho de la Universidad Nacional Autónoma de México (UNAM), el presidente del Comité Internacional de la Cruz Roja (CICR), Peter Maurer, admitió que “nadie sabe qué derecho aplicar” en el caso de las AAL. Comentó que la organización a su cargo se limita en “dialogar con los países que desarrollan estas armas”. Si bien no ha llamado a la prohibición de las AAL, el CICR subraya, en su página en línea: “¿Quién será responsable si la operación de un sistema armado automatizado genera un crimen de guerra? ¿El ingeniero, el programador, el constructor o el mando que activó el arma?”. Y añade: “Si la responsabilidad no puede ser determinada como lo requiere el derecho humanitario internacional, ¿Será legal o ético desplegar estos sistemas?”. En su informe, HRW recordó que en el derecho internacional humanitario la estructura jerárquica militar achaca la responsabilidad de un acto criminal a los oficiales superiores solamente cuando ellos supieron que sus subordinados iban a cometerlo y fracasaron en evitarlo o en castigarlo. La organización, junto con los juristas de Harvard, subrayó que un crimen de guerra sólo se puede determinar cuando el criminal tuvo la intención de asesinar a civiles, y recordó que durante las cortes de Nuremberg, las cuales juzgaron los crímenes de guerra perpetrados por los nazis, el tribunal planteó que “los crímenes contra la ley internacional son perpetrados por personas, no por entidades abstractas”. Para el periodo de sesiones que se llevará a cabo en Ginebra a partir del próximo lunes 13, la delegación austriaca entregó al comité de expertos un documento de reflexión sobre el marco legal de las AAL. Según este documento, el Derecho Internacional Humanitario (DIH) estipula que las nuevas armas deben cumplir con los principios de proporcionalidad, distinción y precaución que estipula el artículo 36 del Primer Protocolo Adicional a las Convenciones de Ginebra antes de entrar en uso. El principio de proporcionalidad se refiere a la obligación que tienen los militares en evaluar los posibles daños sobre civiles que podría desencadenar un ataque y por lo anterior utilizar su juicio humano. La delegación austriaca nota que, por su parte, las AAL “están generalmente programadas antes de atacar, y una evaluación correcta, basada en el principio de proporcionalidad, puede ser particularmente complicada o incluso imposible en zonas pobladas, donde la situación suele cambiar de manera rápida”. A través del principio de distinción, la ley internacional prohíbe cualquier ataque contra una persona que ya no representa un peligro, como un soldado que levante los brazos en señal de rendición. En el caso de las AAL, “parece problemático dejar a un arma robótica decidir si un individuo ya no representa un peligro”, subrayan los austriacos. Finalmente, el principio de precaución obliga a cualquier soldado que cancele su acción bélica al percatarse de que el objetivo no es militar. El problema con las AAL reside en que el arma “toma la decisión del momento en que ataca”, lo cual puede anular los planes de sus programadores de “tomar todas las precauciones necesarias”. Terminator Si bien enfrentan una fuerte oposición en la sociedad civil y de distintos países, los “robots asesinos” también tienen ardientes defensores. La fundación Heritage, bastión de los republicanos estadunidenses, emitió el pasado mes de marzo un ensayo en el que exigió a la administración de Barack Obama “dejar claro que Estados Unidos no tiene ninguna intención de prohibir las AAL”. Al contrario, urgió al gobierno a “seguir desarrollando las AAL de manera responsable para mantener a las fuerzas armadas estadunidenses en el liderazgo de la tecnología militar”. Y aseveró que “prohibir de manera anticipada un arma es una práctica cuestionable”. Según la fundación Heritage, “las AAL tienen el potencial de incrementar la efectividad de Estados Unidos en el campo de batalla y de reducir los daños colaterales y pérdidas de vidas humanas, ya que los censores avanzados pueden ser más precisos que un sistema operado a mano, y las AAL pueden tener una mejor efectividad que un humano en un entorno peligroso, donde el sujeto puede actuar con miedo o rabia”. El comité de expertos ya se reunió a mediados de mayo de 2014 para abordar el tema desde los puntos de vista técnicos, éticos, legales y militares. Durante esta reunión, la delegación estadunidense en Ginebra declaró que “la frase ‘sistemas de armas letales autónomas’ evoca la idea de una máquina humanoide seleccionando objetivos de manera independiente para atacarlas en un ambiente urbano dinámico y complejo”, una referencia a la película de ciencia-ficción Terminator. Tras explicar que el tema de las AAL era “naciente”, de “naturaleza múltiple” y “que no tenía nada que ver con los aviones no tripulados”, la delegación estadunidense insistió en que la autonomía abarca tanto “riesgos” como “posibles beneficios”. Los mayores productores de armas en el mundo –Francia, Alemania, Inglaterra, entre otros-- desplegaron los mismos argumentos: el tema, en apariencia simple, es “muy complejo”, ya que las tecnologías “forman parte de nuestras vidas” y que en su estado actual “no representan necesariamente una amenaza inmediata a los derechos humanos o al derecho humanitario internacional”. La delegación mexicana, por su parte, expresó su “preocupación por la aparición de sistemas de armas autónomas letales que tengan el poder de decidir arbitrariamente sobre la vida o la muerte de los seres humanos”, y reiteró la obligación de los Estados “de proteger y defender el derecho humano a la vida, y esa obligación no puede delegarse bajo ninguna circunstancia”. Durante su charla en la UNAM, Peter Maurer recordó que hasta la fecha las armas más letales en el mundo siguen siendo las más básicas, baratas y fáciles de conseguir.