José Ignacio Latorre: «Las máquinas deben estar regidas por el principio de salvar a los seres humanos» - Alfa y Omega

José Ignacio Latorre: «Las máquinas deben estar regidas por el principio de salvar a los seres humanos»

El físico y divulgador José Ignacio Latorre, autor de Ética para máquinas (ed. Ariel), propone consensuar entre todos los criterios éticos que deben programarse en la inteligencia artificial. «No se puede no legislar. Imagine el típico ejemplo de un coche autónomo. Quizá en algún momento tenga que decidir entre arrollar a un niño o a un abuelo. Hay que programar algo para ese instante, porque el día que se produzca un accidente la gente empezará a quejarse»

María Martínez López
Foto: María Martínez

En Ética para máquinas, insiste en la urgencia de empezar ya a decidir con qué criterios vamos a programar la tecnología y la inteligencia artificial que ya tenemos, y la que está por venir. ¿Cómo hacerlo, si la sociedad humana es incapaz de ponerse de acuerdo sobre temas éticos en el resto de ámbitos?
Programar inteligencia artificial es un verdadero reto. Pero necesario. En muchos dilemas no nos ponemos de acuerdo, unos piensan de una manera y otros de otra, y se queda la decisión sin tomar. Pero aquí no se puede no legislar. Imagine el típico ejemplo de un coche autónomo. Quizá en algún momento tenga que decidir entre arrollar a un niño o a un abuelo. Hay que programar algo para ese instante, porque el día que se produzca un accidente la gente empezará a quejarse.

Si esa decisión la tiene que tomar un humano en milésimas de segundo, su responsabilidad moral queda muy limitada por las circunstancias. Pero programar una decisión así en frío conlleva mucha más responsabilidad.
Efectivamente. Por eso tiene que haber un consenso en qué se programa. En California, la ley obliga a que el pasajero de un coche autónomo tenga las manos cerca del volante sin tocarlo, para que tenga la posibilidad de tomar el control en el último momento antes de un accidente. Pero como es difícil estar horas así, el siguiente paso es meter una cámara para comprobar si ha obedecido esas instrucciones, con las implicaciones que eso tiene para la privacidad. La complejidad se multiplica. Por eso hay que legislar con mucho criterio.

¿Se está haciendo algo ya?
En Google ya hay un criterio ético interno de cómo programar, y el Parlamento Europeo empezó en diciembre a hacer un primer documento sobre lo mismo. Los principios de Google están muy bien pensados. Incluyen que nadie de su personal trabajará en proyectos bélicos, y la rendición de cuentas: cada uno es responsable de lo que programa y no puede delegar esa responsabilidad. No me cabe duda de que los criterios que salgan de la Unión Europea serán similares. Al final, el sentido común lleva a soluciones comunes.

El de los coches autónomos es un caso arquetípico. Pero, ¿en qué otros ámbitos insospechados de nuestra vida estamos controlados por la inteligencia artificial y sus programadores?
En el sistema económico estamos introduciendo inteligencia artificial a marchas forzadas, pero ese ámbito sí está muy legislado. Hay algoritmos en las redes sociales de citas que condicionan nuestro futuro, porque basándose en lo que nos gusta seleccionan a la gente que nos presentan. Crees que tienes libertad, pero en realidad hay muchas restricciones. En reconocimiento facial se ha avanzado mucho. En la Superbowl de Estados Unidos hay redes neuronales para ver si alguien entre los asistentes es peligroso. Ese uso atenta contra tu anonimato, pero puedes entenderlo. Pero me impactó enterarme de que en los colegios chinos se utiliza el reconocimiento facial sistemáticamente para controlar la asistencia. De ahí puede pasar a que te reconozcan en el supermercado y cuando entres pongan anuncios para ti.

¿Por dónde empezar?
Aunque no nos pongamos de acuerdo en todo, sí podemos dar el primer paso: que las máquinas estén regidas por el principio de salvar a los seres humanos. Tiene que haber un principio, que yo llamo de banalidad del bien, que parta de que la tecnología está para asistirnos, no para fastidiarnos (como pasa por ejemplo al comprar un billete de avión por internet). Yo propongo además dos directrices: la trazabilidad (he de saber quién ha escrito un código) y, si hay problemas, un juez debe tener derecho a abrirlo. No digo que el código sea abierto, porque eso es naif; pero sí tiene que ser verificable. Solo con esos dos criterios se atemperaría muchísimos problemas. Las buenas legislaciones se van afinando con el paso de los años. No hay que pretender que sean perfectas… pero hay que empezar.

Esas directrices dan respuesta a la posibilidad de que alguien manipule maliciosamente el código. Pero no dan criterios ante dilemas éticos.
En el caso extremo de un policía virtual si un atracador entra en un banco matando a gente, ¿debe matarlo? Puedo usar el criterio de no hacer a los demás lo que no quieras que te hagan a ti, y no matarlo. O el del utilitarismo, hacer el máximo bien al máximo número de personas posibles, y matarlo. Este ejemplo nos permite revisitar ideas del pasado. Pero enseguida vamos a llegar a situaciones en las que nadie pensó antes, porque todos los códigos éticos están pensados para que los humanos nos relacionemos entre nosotros. Y ahora estamos empezando a relacionarnos con máquinas.

¿Qué ramificaciones pueden surgir de esa relación?
Habrá temas mucho más sofisticados, como si concederles personalidad jurídica, que se les pague y que, con lo que cobran, paguen su propio mantenimiento e impuestos para garantizar el sistema de pensiones… Esta fórmula se podría experimentar por ejemplo con un tren de alta velocidad, al que los pasajeros paguen directamente. Sería una forma de canalizar el ahorro que supone para las empresas el uso de la inteligencia artificial para garantizar la estabilidad del sistema.

Se está empezando también a discutir si hay que conceder derechos a las máquinas inteligentes. ¿Vale tirarla si me ha servido bien, incluso si quizá ha pagado impuestos, solo porque me gusta más el siguiente modelo? Equiparándolo con los animales, hoy en día, aunque está legislado que no te encarnices con ellos, nada impide que te deshagas de uno y compres otro. Pero la mayoría pensamos que eso no está bien.

Ante muchas de estas preguntas usted reconoce que no tiene respuesta. ¿Somos capaces como sociedad de asumir la velocidad de todos estos avances?
A la gente le interesa esto. Ahora se habla más de ética que hace años. Mi primer programa de red neuronal fue en 1992, y ha sido ahora cuando he querido escribir este libro. Y donde quiera que voy a hablar, noto empatía. Yo recomiendo siempre ver películas de ciencia ficción bien hechas para meterse en lo que puede suponer. El problema es que siempre son distopías. Se plantea todo desde la óptica negativa, y eso es una pena. Vivimos mucho mejor que hace siglos. No recomiendo a nadie un dolor de muelas y operarlo en la Edad Media. Damos por sentado todo lo bueno, y que todo lo que va a venir es malo. Pero seguro que van a llegar cosas buenísimas.

Hablamos de las decisiones que tomarán las máquinas inteligentes. Pero, ¿cómo afectará su existencia a la propia estructura de nuestra sociedad? Por ejemplo, en términos de destrucción de empleo.
Un algoritmo bien afinado puede hacer al instante todo lo que hacía un cargo intermedio de una fábrica, de calcular lo que se está produciendo, cuánta materia prima encargar… En España ha habido mucha reticencia, pero cuando se ha vencido la barrera, en todas partes se está implementando el análisis de datos. La purificación del agua en Barcelona ya la gestiona una red neuronal. Todo, cosas que antes hacían los humanos.

Eso no afecta solo al sustento de las personas, sino al sentido mismo del propio trabajo, de si es algo que dignifica y da un propósito al hombre.
Y nos lleva a la pregunta de cómo hay que educar a los niños. Hay una obsesión por que educar es aprender un oficio. ¡Si van a cambiar todos! Las FP van a perder su sentido. En cambio, educar en razonamiento, las grandes disciplinas, sigue adelante. Hay que apostar por la reflexión, por aprender grandes ideas, resolución de problemas… Física, mi carrera, nunca ha tenido más sobredemanda que ahora. Los matemáticos y los filósofos están muy valorados. Y es porque se ha demostrado que la hiperespecialización es pasajera.

Al plantearse la cuestión del alma de las máquinas, opta por una concepción inmanente, material.
No me he querido mojar. Pero creo que en el fondo es un concepto sobrevalorado. Es un fenómeno emergente [que no se puede explicar reduciéndolo a sus elementos, N. d. R.] y algún día lo entenderemos mejor que ahora. Hay una insistencia en elevar el alma a algo más, en la que no no creo. Yo creo que todo está en el cerebro. Lo único que tiene sentido pensar es si se puede imitar, aplicando la idea de Turing, [que planteó como test para la inteligencia artificial si una máquina puede hacer que un humano piense que es humana, N. d. R.]. ¿Puede imitar una máquina el ser bondadoso? Me dirán «pero es que el alma es más». Pero déjeme de momento que programe eso. Pedimos a las máquinas que sean mejores que el mejor humano, pero basta con que sean como el ciudadano medio.

Afirma que «todo es programable», y que solo podemos aspirar a programar a las inteligencias artificiales para que imiten los rasgos espirituales. ¿Al final, la referencia sigue siendo el hombre?
Hasta que lleguemos al nivel de la singularidad, cuando algún día una inteligencia artificial se automejore. Von Neumann habló de ello en los años 1950. Ahora estamos en un nivel previo en el que se va incrementando su capacidad. Ya usamos inteligencia artificial para mejorar el diseño de redes neuronales. Pero hay un instante en que se puede dar un salto, que una inteligencia artificial lo haga todo ella, vaya mejorando y mejorando… y se dispare. A partir de ahí ya es ciencia ficción, pero muy divertido, el preguntarse cosas como si nos harán caso o no, si nos respetarán…

Al analizar la evolución de la ética, habla de las religiones como el último bastión. ¿Qué quiere decir?
Si se piensa fríamente, es la menos racional de las éticas pretéritas. Por eso creo que será el ultimo ámbito que abandonaremos. Dejaremos antes de ser de izquierdas o de derechas y muchas otras formas de pensar. Yo defiendo a muerte algo que leí al presidente de Singapur (donde se están implantando ya muchas cosas de inteligencia artificial): que el futuro no girará en torno a izquierdas vs. derechas, sino en torno a hombres vs. máquinas y a jóvenes vs. viejos. Pero seguramente lo último que abandone la gente será su religión.

¿Juegan las religiones algún papel en esta reflexión?
¡No me habían hecho nunca esta pregunta! Claro que sí. Yo defiendo que es el momento de discutir con muchas voces y codecidir entre todos. Está claro que no tienen que jugar un papel dominante. Pero arrojar luz, ¿por qué no? Todos los estamentos (jurídico, económico, etc.) deben reflexionar sobre inteligencia artificial. No hay ninguna contradicción en que en esa ética que debemos consensuar estén las religiones. Una inteligencia artificial que trate a una persona debe ser respetuosa con su religión, sin duda. Es algo que da sentido a su vida, muchas generaciones de personas han creído en ello…

¿Podría caminarse hacia que algunas partes de la toma de decisiones dependa del dueño de la máquina, que la eduque según sus valores como se hace con los hijos?
La relación con la inteligencia artificial será muy customizada. Cada uno interactuaremos con las adecuadas a nosotros, que aprenderán de nosotros, nos entretendrán…

Ética para máquinas
Autor:

José Ignacio Latorre

Editorial:

Ariel