Congreso sobre la IA en el Vaticano: «Es necesaria una regulación» - Alfa y Omega

Congreso sobre la IA en el Vaticano: «Es necesaria una regulación»

Varios expertos se reunieron para debatir las implicaciones éticas y antropológicas de la inteligencia artificial, haciendo hincapié en la necesidad de un uso responsable de los datos

Victoria Isabel Cardiel C.
El moderador Giorgio Zanchini y el padre Paolo Benanti durante el congreso
El moderador Giorgio Zanchini y el padre Paolo Benanti durante el congreso. Foto: Vatican News.

«La inteligencia artificial IA lo traduce todo en cálculo, pero ¿podemos reducirlo todo a una simple probabilidad estadística? ¿Cómo podemos proteger a los profesionales y trabajadores de los medios de comunicación de la llegada de la IA y mantener el derecho a informar y a ser informado con base en la verdad, la libertad y la responsabilidad? ¿Cómo hacer interoperables las grandes plataformas que invierten en la IA generativa para que no reduzcan al ser humano a una reserva de datos que explotar?». Estas son las tres preguntas —inspiradas en los mensajes del Papa para las Jornadas Mundiales de la Paz y de las Comunicaciones Sociales, así como en su reciente discurso en el G7 de Bríndisi— que el prefecto del Dicasterio para la Comunicación, Paolo Ruffini, planteó a los participantes del congreso organizado por el Vaticano este jueves en colaboración de la Fundación San Giovanni XXIII.

Cada vez que Francisco toma la palabra para hablar sobre la inteligencia artificial, alumbra a la Iglesia en su «intuición» de caminar con la humanidad a través de la cultura, aseguró el secretario del Dicasterio para la Comunicación, el sacerdote Lucio Ruiz, que hizo un repaso de los cambios tecnológicos y evolutivos que poco a poco han sido absorbidos por la Santa Sede. Por ejemplo, cuando hace 500 años se creó la primera imprenta vaticana poco después del descubrimiento de Gutenberg; con la construcción de Radio Vaticano por el inventor de las comunicaciones inalámbricas Guglielmo Marconi en 1931; o con la creación del portal vatican.va en 1994, cuando la web acababa de aparecer en los ordenadores de la gente corriente.

La cita académica que tuvo lugar en la Casina Pio IV, abordó la frontera ética que imponen los algoritmos. El profesor de ética y bioética en la Pontificia Universidad Gregoriana, el franciscano Paolo Benanti, destacó que la esencia primaria de los ordenadores es «realizar cálculos» y recordó cómo la invención de los transistores, puestos por Estados Unidos a disposición de sus aliados durante la Segunda Guerra Mundial, cambió el devenir del conflicto.

Así también destacó que los primeros prototipos informáticos «contribuyeron al descubrimiento de la bomba atómica y al desciframiento de los códigos secretos utilizados por la Alemania nazi».

A partir de esa visión centralizada de la tecnología, y a través de la revolución protagonizada por los pioneros de Silicon Valley en los años 70, señaló que finalmente llegamos a una computación «personal», primero a través de los ordenadores y después de los smartphones. Con ChatGPT y su implantación en las interfaces de los teléfonos de Apple y Microsoft, subrayó que aún «no sabemos qué parte de la computación será personal y qué parte estará centralizada en la nube». Por ello, subrayó que «es necesaria una regulación», como la que ha hecho la Unión Europea, para «gestionar la inteligencia artificial del mismo modo que se han establecido leyes de tráfico para los coches».

La directora de la Agencia Nacional de Ciberseguridad de Italia, Nunzia Ciardi, comentó, por su parte, que la Inteligencia Artificial tendrá un impacto antropológico decisivo en la realidad porque «se apoya en una enorme cantidad de datos recogidos brutalmente durante décadas por las empresas a través de servicios o aplicaciones gratuitas que se han convertido en imprescindibles para nosotros». Ciardi destacó otros aspectos, como el uso de la lengua inglesa para entrenar algoritmos —con todos los valores y expresiones culturales que conlleva un idioma frente a otro— y el riesgo de que cada vez «nos cueste más decodificar mensajes complejos, lo que puede ser peligroso en una democracia».