¿Qué pasará cuando un dron decida cuándo disparar?
Según la ONU, ya existen armas con capacidad para elegir objetivos y atacarlos sin control humano. Las iniciativas para intentar frenarlas también avanzan, pero no a la suficiente velocidad
La guerra en Ucrania podría acelerar la llegada de los robots asesinos. Tica Font, investigadora del Centro Delàs de Estudios por la Paz, asegura que hay información de que «los drones que se están viendo tienen capacidad de ser autónomos» no solo para volar, «sino para elegir sin intervención humana el objetivo y cuándo disparar». Pero se matiza que estas funciones «las tienen desactivadas». Eso sí, no descarta que se puedan hacer pruebas en esa línea. Alude al ofrecimiento de drones israelíes a Ucrania: «Algunas empresas tienen interés en que se pruebe su armamento en combate» para luego publicitarlo.
Ucrania no es el único escenario posible para este salto. Según la Oficina de Asuntos de Desarme de las Naciones Unidas (UNODA por sus siglas en inglés), ya hay funcionando sistemas de armamento con capacidad de entrar solos en combate. En un informe de diciembre de 2021, la plataforma Stop Killer Robots, que agrupa a 190 entidades, alertaba de que cada vez más países y empresas trabajan en este ámbito, diseñando armas que funcionan en zonas más amplias e identificando a más posibles objetivos. Recogía casos como el de Jari, un barco no tripulado chino que, según se ha informado, puede realizar acciones de combate de forma autónoma.
• Distinción: Un arma autónoma tendría que poder diferenciar entre un militar y un civil aunque este vaya armado (un yemení con un puñal o un pastor con un kaláshnikov) o lo parezca (con una muleta). Y distinguir su intención.
• Responsabilidad: ¿A quién se pueden pedir cuentas de la decisión que toma un arma autónoma, a quién reclaman las víctimas?
• Proporcionalidad: «Cuando una persona decide un ataque, hace un balance del daño. Si el arma es autónoma, tienes que darle instrucciones muy claras sobre cuántas víctimas colaterales son aceptables», explica Tica Font.
• Nueva carrera: De 2014 a 2021 el presupuesto militar en robótica de EE. UU. pasó de 20 a 379 millones de dólares. Desde 2016, se concedieron a China más patentes de inteligencia artificial militar, recoge Stop Killer Robots.
Según Font, «Rusia ha diseñado torpedos con propulsión nuclear y cabeza convencional o nuclear que pueden estar meses bajo el agua, merodeando», con instrucciones de «atacar cuando se identifique un tipo de barco de un país». También «se está trabajando mucho» en los enjambres de hasta cientos de armas autónomas que se puedan coordinar entre sí. Además, existe una línea para «sustituir el viejo armamento nuclear» —tan destructivo que «hace muy poco creíble» que se llegue a usar—, por armas no tan potentes, pero «con todas las aplicaciones de la inteligencia artificial».
Mientras «un cierto grado de autonomía podría tener beneficios como reducir los casos de errores humanos», subrayan desde UNODA, la autonomía total está llena de riesgos. La investigadora del Centro Delàs explica que la legalidad de un arma se basa en los principios de distinción, responsabilidad y proporcionalidad. Y «no es solo muy difícil, sino imposible» que las armas autónomas los cumplan. Otra cuestión clave es «qué lugar ocupa aquí la dignidad humana. ¿Tiene que ser una máquina la que decida sobre la vida o muerte de un humano? Así, lo relegamos a una condición de inferioridad».
Hacia un límite efectivo
En 2018, el secretario general de la ONU, António Guterres, afirmó que «las máquinas con el poder y la discreción de segar vidas sin implicación humana» son «repugnantes moralmente y deberían ser prohibidas». En declaraciones a Alfa y Omega, la alta representante de la ONU para Asuntos de Desarme, Izumi Nakamitsu, afirma que «es vital que la comunidad internacional» se una para lograr «un instrumento internacional efectivo en el marco de la ONU».
Desde 2014 se debate sobre ello en el marco de la Convención sobre Ciertas Armas Convencionales. «Estas conversaciones han producido importantes acuerdos provisionales, incluyendo un conjunto de principios guía» y un «creciente entendimiento común de los riesgos». Estos incluyen los que «no podemos prever». «Ahora ha llegado el momento de que avanzar decisivamente en su trabajo» para lograr «un resultado tangible». Quedan pendientes cuestiones sobre si bastan los derechos y reglas existentes o sobre la forma del instrumento de la ONU.
En el pasado, Stop Killer Robots se mostró crítica con las limitaciones de los debates en la convención, donde la búsqueda de unanimidad facilita los bloqueos. Además, creen que cualquier avance debe ir más allá del derecho internacional humanitario para evitar el uso de estas armas no solo en guerras, sino por parte de las Fuerzas de Seguridad. Por ello, piden iniciar el proceso para elaborar un tratado vinculante a través de la Asamblea General de la ONU o de un mecanismo independiente.
La semana pasada tuvo lugar la primera sesión de 2023 del Grupo de Expertos Gubernamentales sobre este tema. Participantes como Richard Moyers, de la organización británica Article 36 —que busca reducir el impacto armamentístico—, mostraron su optimismo porque «la conversación va en una dirección que mira más en serio a las negociaciones». Font no comparte su diagnóstico. «En el ámbito militar no hay predisposición» a establecer límites, por la ventaja que supondrían estas armas. Como propuesta «más realista», algunos abogan, sin prohibirlas, por «obligar a que siempre haya un humano al que se pida permiso antes de disparar. Pero todos somos conscientes de que se terminarán usando». Teme que suceda «lo mismo que con la bomba atómica, que se intentó prohibir» solo «cuando se utilizó y nos horrorizamos». Como pasó entonces, si se espera demasiado, las armas estarán lo suficientemente desarrolladas para que «nadie quiera renunciar a ellas».