¿Puede formarse un médico sin ver a los pacientes?
La Academia Pontificia para la Vida firmará este viernes con representantes de IBM, Microsoft, la FAO y la UE el Llamamiento de Roma para una Ética de la Inteligencia Artificial, fruto de un período de reflexión multidisciplinar
La Iglesia, importantes empresas informáticas y organismos supranacionales, unidos para reclamar una inteligencia artificial con principios sólidos. Se escenificará este viernes en la Pontificia Academia para la Vida con la firma del Llamamiento de Roma para una Ética de la Inteligencia Artificial (IA), que luego se presentará al Papa Francisco. Participarán en el acto Brad Smith, presidente de Microsoft, y John Kelly III, vicepresidente ejecutivo de IBM. No son meros invitados. De hecho, «fueron ellos los que acudieron a buscarnos», subraya a Alfa y Omega Andrea Ciucci, secretario de la academia.
Les preocupaban las implicaciones de su trabajo cotidiano. Y sabían que este organismo de la Santa Sede era uno de los ámbitos donde, en los últimos años, se había hablado y escrito sobre esta cuestión. La Iglesia detectó hace tiempo la necesidad de «afrontar bajo diversos puntos de vista la relación entre las nuevas tecnologías y la vida humana». Así, el año pasado se convocó un encuentro sobre robótica, seguido este año por el seminario sobre IA ¿El buen algoritmo?, que se clausura este jueves. Las dos citas se han convocado en el marco de la Asamblea General de la academia.
Tirando de conocidos comunes, los responsables de ambas compañías contactaron con la academia. «Les interesaba comprender cómo estábamos promoviendo este tema», recuerda Ciucci. «De ahí nació una bella colaboración». En el acto también estarán presentes David Sassoli, presidente del Parlamento Europeo; y Dongyu Qu, director general de la FAO. «Siendo un fenómeno global y transversal, que atraviesa infinitos ámbitos, debemos trabajar juntos», explica el secretario. Por eso en la redacción del llamamiento se han implicado «nuestros académicos, numerosos expertos, y representantes del mundo industrial y del mundo social».
Derecho y educación
Además de la reflexión sobre por qué es necesaria esta ética de la inteligencia artificial, el llamamiento desarrolla tres apartados: uno sobre la ética en sí misma, y otros dos más concretos, sobre el ámbito del derecho y el mundo educativo. Este último «es particularmente significativo para nosotros», adelanta Ciucci. «Los sistemas de inteligencia artificial y deep learning [algoritmos para que las máquinas aprendan, N. d. R.] abren espacios impensables, pero cambian considerablemente otros. Por ejemplo, ya hay estudiantes de Medicina que trabajan con simulaciones virtuales. Esto ofrece posibilidades increíbles. Pero existe el riesgo de que los nuevos médicos no hayan visto una persona enferma hasta que empiezan a trabajar». En este caso, como en muchos otros, «se trata de comprender qué aportación puede ofrecer todavía la persona humana». Cita, por ejemplo, todo lo que tiene que ver con el aspecto relacional y la empatía, que «no es un saber que se adquiera leyendo todos los artículos sobre una enfermedad».
El viernes, los signatarios se comprometerán a hacer propias e implementar en su campo sus orientaciones para actuar de forma ética, y a seguir reflexionando sobre el tema; una profundización en la que la academia seguirá trabajando. Este nuevo camino también pasa por difundir la propuesta en el mayor número posible de contextos.
Caminamos hacia, y en cierto sentido estamos llegando ya, a un mundo en el que el estar online (conectado) será sustituido por el on life, «un neologismo que algunos pensadores usan para hablar del entrelazamiento inextricable entre la vida humana y el universo digital», explica Fabrizio Mastrofini, portavoz de la Pontificia Academia para la Vida. Esto influye en la sociedad hasta el punto de que «está emergiendo una comprensión de nosotros mismos que enfatiza la centralidad de la información: la persona humana es un organismo informativo».
Mastrofini no cree que esta realidad vaya a llevar a equiparar las personas a máquinas, pues «son aquellas las que diseñan y programan estas». Y cree que aún queda lejos la pregunta de qué ocurrirá cuando las inteligencias artificiales puedan aprender hasta el punto de tomar decisiones propias. De momento, es más urgente «asegurarnos de que nuestros prejuicios no se transfieran a los algoritmos bajo los cuales las máquinas toman decisiones». Y también plantearse las consecuencias aplicaciones concretas como el reconocimiento facial («¿se utiliza para controlar a las personas, o para aumentar la democracia y participación?»); cómo se obtienen, procesan y qué usos se da a las miles de historias clínicas con las que las tecnologías de IA pueden «mejorar los diagnósticos», o «quién es responsable» de las armas que pueden «disparar, intervenir y matar sin la necesidad de permiso del operador, basándose solo en cómo interpretan ciertos datos».