Sin reglas para la IA, «acabará causando indignantes daños colaterales»
El cardenal Michael Czerny y expertos en inteligencia artificial han presentado el mensaje del Papa para la 57 Jornada Mundial de la Paz, que se celebrará el 1 de enero
«El Papa Francisco denuncia el paradigma tecnocrático, un uso sin escrúpulos de la tecnología dirigido solo por el hambre de beneficios e intereses creados», ha sostenido el cardenal Michael Czerny durante la presentación el 14 de diciembre del mensaje para la 57 Jornada Mundial de la Paz, que tendrá lugar el 1 de enero de 2024. Lleva como título Inteligencia artificial y paz y aborda las posibilidades y riesgos de las IA encargando a sus desarrolladores que sirvan como «camino hacia la paz» y que transformen «las espadas en arados». A la luz de este mensaje, el prefecto del Dicasterio para el Servicio del Desarrollo Humano Integral ha advertido de que si en vez de la vocación de servicio «el paradigma tecnocrático es la única regla que gobierna la inteligencia artificial, acabará causando indignantes daños colaterales: desigualdades, injusticias, tensiones y conflictos».
El purpurado checo ha puesto como ejemplo las aplicaciones de las IA para la guerra, que la vuelven «más sofisticada y destructiva al retirar la responsabilidad del campo de batalla» porque «finalmente, nadie aprieta el gatillo ni tira la bomba, lo hace un algoritmo». Pero ha recordado de que, aparte de su uso bélico, estas tecnologías también «pueden amenazar la justicia social». «En el mundo laboral, por ejemplo, los robots erradican cada vez más puestos de trabajo, generando importantes incrementos en la pobreza». Y en el campo periodístico, «existen nuevos modos de distorsionar las palabras y las imágenes para manipular y desinformar deliberadamente que ponen en peligro el orden civil y los gobiernos democráticos».
Czerny ha emplazado a «la supervisión y regulación de las nuevas tecnologías en todas sus fases, desde la concepción y la comercialización al uso real». Y ha subrayado que «solo podemos culparnos a nosotros mismos, la humanidad, de los resultados destructivos». Ha exigido por tanto «normativas eficaces dentro de los Estados, acuerdos multilaterales y tratados vinculantes». Y citando la última exhortación apostólica del Papa, Laudate Deum, ha apuntado que «se requiere un marco diferente de cooperación eficaz para consolidar el respeto de los derechos humanos más elementales, los derechos sociales y la protección de nuestra casa común».
El jesuita ha invitado a «los jefes de Estado, autoridades políticas y líderes de la sociedad civil a ejercer su corresponsabilidad en este momento de la historia» y a fiscalizar la inteligencia artificial. «Todos deben prestar atención y elegir bien si queremos legar un mundo mejor y más pacífico a las generaciones venideras», ha encargado. Y ha concluido su intervención destacando que, inspirado por el ejemplo de «Cristo, que se preocupó sobre todo por la condición humana y por nuestros hermanos más frágiles», el Papa Francisco «nos hace comenzar el año interrogándonos profundamente sobre la que quizá sea la apuesta más arriesgada de nuestro futuro».
Esperanza, compromiso y responsabilidad
Por su parte, Mathieu Guillermin, profesor de Filosofía y Ética de la Ciencia en la Universidad Católica de Lyon y coordinador desde 2019 del proyecto de investigación «El nuevo humanismo en tiempos de la neurociencia y la inteligencia artificial», ha sostenido en la Sala Stampa que, pese a sus preocupaciones «el Papa comparte con nosotros un mensaje de esperanza a la vez que una llamada al compromiso y a la responsabilidad». Ha elogiado que Francisco pida explícitamente en su mensaje que la IA «contribuya a un mayor orden en la sociedad humana y a una mayor comunión fraterna y libertad», para lo que es importante que esté al servicio de «nuestro mejor potencial humano y a nuestras más altas aspiraciones, no compita con ellos».
Para ello ha pedido mantener activa la atención en los verdaderos intereses profundos de cada uno y no dejarse llevar por las distracciones que los algoritmos proponen con su gratificación instantánea. Ha advertido también de que «centrarse exclusivamente en lo medible socava nuestra capacidad de pensar adecuadamente lo que importa en nuestras vidas y, por tanto, nuestra capacidad para desarrollar y utilizar adecuadamente la tecnología de IA».
Y aunque ha concedido con optimismo que «los algoritmos pueden ser capaces de predecir con fiabilidad diagnósticos basados en imágenes médicas, niveles de riesgo en asuntos bancarios o judiciales, nunca podemos confiar integralmente y sin sentido crítico en ellos». «En muchos lugares, nuestra capacidad humana para ir más allá de lo medible y lo computable es indispensable», recalca.
En conversación posterior con Alfa y Omega, este profesor francés propone varias estrategias para que las máquinas no secuestren la atención de las personas ni las radicalicen políticamente. «Lo primero es conocer que nosotros mismos tenemos sesgos», recomienda. «Si descubrimos, aprendemos y desvelamos nuestros sesgos cognitivos, podemos hacer las cosas de un modo diferente. Pero nos llevará esfuerzo», algo en cualquier caso preferible a que «nos acaben conduciendo por rutas por las que no queremos ir».
Guillermin pide no encerrarse en el derrotismo y, más allá de «resistirse», que es una legítima reacción inicial, «pedir, solicitar y exigir al sistema otros tipos de algoritmos». «Si todos le decimos a Facebook que no queremos esto y necesitamos algo más, las cosas pueden cambiar de manera positiva», sentencia convencido.
Una de las propuestas del académico para acabar con las cámaras de eco es desarrollar algoritmos «que me propongan cosas sobre las que no esté previsto que capturen mi atención y darles prioridad», algo perfectamente realizable técnicamente aunque quizá menos rentable. «Si la máquina nota que consumo contenidos demasiado homogéneos, que me empuje a otro sitio», solicita.
Y pone de relieve las herramientas que la inteligencia artificial ofrecen para una mejor convivencia democrática. «Me gusta el asistente que, cuando escribes por Internet, te avisa: «El modo en que estás expresándote y relacionándote con los demás puede resultar amenazanteW», confiesa, por lo que confía en que siguiendo ese espíritu «desarrollemos herramientas que nos ayuden a comunicarnos y dialogar mejor».