Para hacer un buen uso de la IA «es necesario formarse en humanidades» - Alfa y Omega

Para hacer un buen uso de la IA «es necesario formarse en humanidades»

El experto Mario Torres defiende una «gobernanza ética» de las nuevas tecnologías en el Congreso Internacional de Diálogo Filosófico que organiza la UPSA

Juan Luis Vázquez Díaz-Mayordomo
Foto de recurso sobre la IA de una chica tocando una pantalla
«Las tecnologías no son el problema, el problema es el mal uso que se haga de ellas», dice Torres Jarrín. Foto: Freepik.

La Universidad Pontificia de Salamanca y la revista Diálogo Filosófico organizan del 19 al 21 de junio el XII Congreso Internacional de Diálogo Filosófico, que abordará entre otras cuestiones los diversos retos que presenta la inteligencia artificial en la sociedad actual. Para Mario Torres Jarrín, director del Instituto de Estudios Europeos y Derechos Humanos de la UPSA, «las tecnologías no son el problema, el problema es el mal uso que se haga de ellas».

En el congreso va a hablar de la gobernanza ética de la inteligencia artificial. ¿Por qué se necesita está visión sobre la IA?
—Hay diferentes iniciativas y esfuerzos que se están haciendo en la arena internacional por parte de gobiernos y organismos de todo tipo: la Unión Europea tiene propuesta de reglamento sobre la inteligencia artificial, hay ya recomendaciones por parte de la OCDE, de la UNESCO y de la Unión Internacional de las Telecomunicaciones, y también de ámbitos informales como es el G20 o el Foro de Davos.

¿Qué buscan? ¿Cuál es su objetivo?
—Las tecnologías disruptivas, como es el caso de la inteligencia artificial, afectan a los diferentes procesos y a los diferentes ámbitos de una sociedad, en su esfera jurídica, económica, comercial, cultural, incluso medioambiental. Por tanto, estos organismos internacionales y países como Estados Unidos, India, China, Reino Unido, por citar algunos de ellos, buscan regular estas tecnologías debido al impacto que tienen y sobre todo porque afecta a su seguridad nacional.

Que todos se pongan de acuerdo en la necesidad de regular la IA, ¿no es sospechoso en cuanto a su uso?
—Es verdad que puede haber un mal uso de las tecnologías, en este caso de la IA. Se está demostrando que puede vulnerar muchos derechos fundamentales, con técnicas como el reconocimiento facial o toda la información que estamos cediendo a cambio simplemente de darle a Permitir para poder utilizar una app, unos juegos, un emoticono o cualquiera de los servicios que utilicemos. Por eso, gobiernos y organismos están en búsqueda de esta gobernanza, que tiene que ser ética, y ahí entra el tema de las responsabilidades.

¿Quiénes son los responsables entonces de un mal uso?
—Muchas veces los usuarios muestran una falta de responsabilidad que procede de no leernos los contratos o no exigir que sean mucho más claros los términos de condiciones cuando nos bajamos una app o descargamos un servicio que tiene la inteligencia artificial. Otras veces son las empresas las que hacen una publicidad engañosa o no son transparentes con los bienes y servicios que nos ofrecen.

Aquí entra otra cuestión: en todas estas tecnologías se utiliza el ciberespacio. A diferencia de otros tiempos en la historia de la humanidad en que los espacios siempre han sido dirigidos por los estados y naciones, el ciberespacio ha sido principalmente diseñado y gestionado por las grandes empresas tecnológicas, con recursos humanos y financieros que no tienen los gobiernos. Por eso, desde 2017 se está hablando de la importancia de gobernar la acción exterior de las big tech companies, porque son de facto los nuevos actores geopolíticos. Por ejemplo, solo el capital de Google, Apple y Navidia es igual al Producto Bruto Interior de Francia y Alemania; y si sumáramos el capital de las diez primeras big tech, eso igualaría al PIB de más de 130 países. Es decir, son casi estados soberanos. Por eso habla ahora de soberanía digital y de ahí la importancia de gobernar el ciberespacio y de regular el comportamiento de estas empresas.

El Papa León XIV ha hablado desde el inicio de su pontificado sobre los desafíos de la IA. ¿Cree que la Iglesia puede ser una voz autorizada para esta tecnología se use con buen criterio?
—No sería de extrañar que entre las encíclicas del Papa hubiera una dedicada a la inteligencia artificial. Son documentos que habitualmente sitúan la posición de la Iglesia respecto a todos los retos que enfrentan nuestras sociedades, y por tanto no me extraña en que el Papa León XIV se pronuncie de esta manera al respecto.

¿Qué podemos hacer los individuos de a pie para usar bien la IA y no ser usados por ella?
—Formarnos. Hace tiempo, el problema era la falta de información o el acceso a ella. Ahora tenemos un exceso de información, y el problema es la calidad que tiene. La única manera de tener criterio para poder discernir si lo que estamos viendo leyendo es verdadero, malintencionado o falso, es justamente tener una buena formación de base. Ahí entra la revaloración que ahora tienen las humanidades: disciplinas como la filosofía, la historia, las lenguas, la literatura vuelven a estar presentes. Incluso cuando uno habla con estas big tech companies, ve que están contratando filósofos, literatos, artistas…, para que la propia inteligencia artificial aprenda de ellos.

Desarrollar pensamiento crítico es lo que nos va a permitir adaptarnos y por tanto no solamente evitar que perdamos nuestros trabajos, sino incluso potenciar nuestras carreras y crear nuevos empleos, y para eso hay que entender las tecnologías. Las tecnologías no son el problema, el problema es el mal uso que se haga de ellas.