La Santa Sede pide frenar la fabricación de robots asesinos

La Santa Sede pide frenar la fabricación de robots asesinos

Durante la Asamblea General de la ONU, Paul Richard Gallagher, secretario de la Santa Sede para las Relaciones con los Estados, se refirió a los robots asesinos como una amenaza de la IA para la seguridad y pidió obligar a que las decisiones en el uso de armas «sigan bajo control humano»

María Martínez López
Manifestación en Berlín (Alemania) contra los robots asesinos
Manifestación en Berlín (Alemania) contra los robots asesinos. Foto: Stop Killer Robots.

El Vaticano pidió este jueves al Consejo de Seguridad de la ONU una «moratoria inmediata» en el desarrollo de robots asesinos. Paul Richard Gallagher, secretario de la Santa Sede para las Relaciones con los Estados y las Organizaciones Internacionales, llevó esta cuestión a un debate abierto sobre inteligencia artificial y paz y seguridad internacional organizado por Corea del Sur. El acto tuvo lugar en el marco de la Asamblea General que se celebra estas semanas.

El número tres del Vaticano se refería a estos robots al hablar de «sistemas de armas autónomos letales» (LAWS por sus siglas en inglés), su nombre técnico. Dijo de ellos que son una de las manifestaciones más claras de un mal uso de la IA, que puede convertirla en «instrumento de división y agresión, con el potencial de alimentar más los conflictos». Ya el Papa Francisco advirtió contra ellos.

Gallagher durante su intervención
Gallagher durante su intervención. Foto: Oficina del Observador Permanente de la Santa Sede ante la ONU.

Su uso «suscita graves preocupaciones legales, de seguridad, humanitarias y éticas para la comunidad internacional, porque carecen de la capacidad humana única de juicio moral y toma ética de decisiones», afirmó Gallagher. Por eso, además de pedir una pausa en su uso, reclamó «un instrumento legalmente vinculante para asegurar que las decisiones sobre la vida y la muerte sigan bajo un control humano significativo».

IA en las armas nucleares

Junto a los robots asesinos, otra cuestión que alarma a la Santa Sede es el surgimiento de «una nueva carrera de armamento marcado por la integración de la IA en los sistemas militares», incluidos los espaciales y los sistemas de defensa antimisiles, abundó Gallagher. Esta incorporación está siendo «rápida» tanto armas convencionales como nucleares. Esta tendencia amenaza con «alterar [su] naturaleza». En efecto, crean «un nivel sin precedentes de incertidumbre debido a la posibilidad de errores de cálculo».

En particular, señaló el número tres del Vaticano, incorporar la IA en la cadena de control y mando de las armas nucleares «introduce nuevos riesgos desconocidos». En vísperas del Día Internacional para la Eliminación Total de las Armas Nucleares, que se celebra este viernes, incidió en que estos peligros van incluso más allá de «la ya frágil y moralmente preocupante lógica de la disuasión nuclear».

Potencial para el bien

En resumen, «la tecnología que sustituye el juicio humano en cuestiones de vida o muerte cruza límites inviolables que no deben romperse nunca». Un problema que es particularmente urgente «dada la inestabilidad global» actual. Frente a estas amenazas, Gallagher afirmó que «la Santa Sede pide un abordaje al desarrollo y uso de tecnologías emergentes centrado en la persona» y en el bien común.

Un momento del debate
Un momento del debate. Foto: DRM News.

En clave más positiva, Gallagher señaló que, si se usa la inteligencia artificial con este enfoque, «tiene el potencial de ayudar a alcanzar muchas de las aspiraciones que guiaron la creación de la ONU hace 80 años». En particular, alcanzar el desarrollo sostenible, mantener la paz y la seguridad nacional y defender los derechos humanos y las libertades fundamentales.