Alfredo Marcos: «Necesitamos educación en virtudes a la altura de nuestra tecnología» - Alfa y Omega

Alfredo Marcos: «Necesitamos educación en virtudes a la altura de nuestra tecnología»

Ester Medina
Alfredo Marcos
Foto cedida por Alfredo Marcos.

Sin duda la irrupción de ChatGPT en nuestras vidas ha provocado una fascinación social, académica y mediática en el mundo entero. Junto al catedrático de Filosofía de la Ciencia de la Universidad de Valladolid cuestionamos si de verdad es tan deslumbrante esta tecnología y si es tan inteligente como nos quieren hacer creer. 

Empecemos por el término: inteligencia artificial (IA). ¿Qué hay de verdad en esas dos palabras?
Creo que es una denominación errónea que no dice la verdad, que es que realmente no hay sistemas inteligentes que sean simplemente artificiales. Lo que hay son sistemas, que yo llamaría sistemas de control delegado, porque en realidad es en ellos en quienes delegamos el control de ciertos procesos. Si les llamamos sistemas de inteligencia artificial, deberíamos tener claro que, en ellos, la parte artificial no es inteligente y la parte inteligente no es artificial; y que son sistemas sociales de interacción entre personas mediadas por máquinas y por algoritmos. 

¿La IA influye en el humanismo?
Si tenemos claro que se trata de facilitar y mejorar las relaciones entre personas con todos los medios que tenemos a nuestro alcance, incluidos los medios digitales, entonces favorecerán el humanismo. Pero si pensamos que vamos a construir una especie de artefacto que sustituya a las personas, entonces obviamente va a perjudicar cualquier visión humanista de la realidad.

¿Cuáles son los problemas éticos más importantes que plantea esta tecnología?
Para mí plantea problemas de carácter antropológico y ontológico antes que las cuestiones éticas. Necesitamos saber qué es eso a lo que erróneamente llamamos IA y, una vez que sepamos lo que es, podremos enfocar mucho mejor las cuestiones éticas y políticas. Pensar en esto nos abrirá un mundo de posibilidades en lugar de un mundo de amenazas. Debemos tener claro que estos sistemas no son sujetos ni toman decisiones, son simples entidades físicas a las que damos significado, es decir, que están dentro del ámbito de lo humano. Sin embargo, es verdad que la IA plantea problemas éticos concretos y esto va muy relacionado con la educación. Creo que deberíamos dejar de hablar de educación en valores para hablar de educación en virtudes, porque solo el desarrollo de ciertas virtudes en la escuela permite utilizar estas herramientas digitales correctamente y al servicio de lo humano. Educar la paciencia o el autocontrol nos permitirá convivir con el mundo tecnológico y no vernos esclavizados por él. Necesitamos una educación en virtudes a la altura de nuestra situación tecnológica.

¿Se está abordando en serio este tema en las facultades?
Sí, desde que irrumpió ChatGPT hay una obsesión académica y mediática por la IA. De algún modo es deslumbrante. De hecho, en el siglo pasado hubo varias oleadas de la IA que arrancaron con enormes expectativas y han acabado entrando en una fase de invierno. Ahora estamos en una fase álgida a la que quizá le siga una fase de valle con un nuevo invierno. Creo que es más estable e interesante pensar sobre lo digital, porque la IA es una manifestación más de ello. En este sentido, tenemos que enseñar a los jóvenes qué tipo de realidad tiene lo digital y que es siempre una representación de algo. Lo digital representa y, por lo tanto, podemos entrar y salir. 

Usted habla del efecto Toy Story, ¿qué es?
Me parece que es una buena ilustración la película porque el protagonista piensa que cuando él sale de la habitación, los juguetes siguen jugando. Y nosotros estamos seducidos por ese efecto: pensamos que la pantalla, cuando no la miramos, sigue teniendo palabras. Y en realidad son puntos de luz y de oscuridad. Estamos seducidos por esa idea y no, las máquinas no siguen haciendo nada inteligente, no toman decisiones, no tienen semántica cuando las personas no las miran.

¿Debemos considerar la IA más como amenaza o como oportunidad?
Las dos cosas, depende de cómo la interpretemos. Si pensamos que se trata de un sujeto o tratamos la IA como si fuera una persona, entonces sí es una amenaza. Si lo interpretamos como lo que realmente son, herramientas al servicio de las personas de carácter mecánico, físico y lógico, entonces es una gran oportunidad para mejorar la vida en sentidos muy interesantes.