«La inteligencia artificial no tiene ética, las personas sí» - Alfa y Omega

«La inteligencia artificial no tiene ética, las personas sí»

La presidenta de OdiseIA, referente de la Iglesia a la hora de entender el alcance de la IA, destaca sus beneficios y también sus fallos, «porque ha sido entrenada por personas»

Juan Luis Vázquez Díaz-Mayordomo
Idoia Salazar durante su intervención en la jornada organizada por la CEE
Idoia Salazar durante su intervención en octubre en la jornada organizada por la CEE. Foto: CEE.

«A la inteligencia artificial tenemos que acercarnos sin prejuicios, porque puede ser una herramienta muy útil», afirma Idoia Salazar, presidenta del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA). Salazar, que participó recientemente en la jornada Inteligencia artificial: potencia, técnica, ética, organizada por la Conferencia Episcopal Española, señala que la IA «es simplemente un algoritmo que es diferente de otros programas informáticos porque puede tomar decisiones de modo similar a como las entendemos los seres humanos y es capaz de hacerlo de manera autónoma, por sí mismo».

A la hora de explicar el modo de funcionamiento de la IA, la presidenta de OdiseIA afirma que «es parecido al nuestro: nosotros tenemos en cuenta todos los datos que tenemos en nuestro cerebro y luego decidimos en consecuencia. Pero la IA cuenta con mucha más cantidad de información, que es capaz de procesar para extraer patrones y elegir luego la mejor opción», añade.

Lo singular de la IA es que «no aplica contexto ni está condicionada por ningún sistema ético. Simplemente opta por el resultado que deduce de los datos con los que ha sido entrenada». Por el contrario, «el ser humano siempre se sitúa en un contexto y se vale de una ética y de un sentido común que a veces nos hacen actuar con independencia de la mera objetividad», dice esta experta.

«El problema no es la herramienta, sino el uso que nosotros queramos hacer de ella», dice Idoia Salazar. Foto: Freepick.

Salazar pone como ejemplo que «tú puedes entrenar a un software a jugar muy bien al ajedrez, pero si le pides jugar al parchís entonces no sabe. Eso es por ahora la inteligencia artificial: algo que sabe hacer una cosa muy bien, mejor a veces que los seres humanos, pero no todo. Por eso algunos lo llaman IA débil».

De todos modos, la IA está evolucionando ahora «hacia la posibilidad de hacer más cosas y mejor hechas, con mayor autonomía». Se está empleando con celeridad en cada vez más campos. «Prácticamente no hay ningún área en la que no sea útil —dice Idoia Salazar—, se ha democratizado muchísimo. Se está usando en medicina, abogacía, agricultura, ganadería…, porque procesa de manera muy eficiente los datos y mejora cualquier tipo de empresa y sus procesos». Por ejemplo, «se está estudiando su valor en la agricultura a la hora de prevenir hambrunas permitiendo un uso eficiente de los recursos. Y también puede personalizar un medicamento para una persona concreta según su patología», revela.

Sin embargo, «no sirve para todo, porque no reemplaza por completo las labores humanas. Hay otras cosas que solo puede realizar el ser humano». Así, en estos tiempos en los que hay quien se plantea la existencia de «algún tipo de conciencia de las máquinas», Salazar argumenta que «el ser humano es único» y que «la IA mejora nuestra vida, pero no la sustituye. No todo vale, no se puede fabricar un ser con algo parecido al alma humana».

De ahí que la presidenta de OdiseIA destaque que lo más importante a la hora de hablar de inteligencia artificial «es tener en cuenta que quien está al final de los procesos de la IA es siempre un ser humano». En este sentido, la IA también tiene fallos «porque ha sido entrenada por personas». Pero «el problema no es la herramienta, sino el uso que nosotros queramos hacer de ella. La máquina no tiene ética, las personas sí».

Una máquina que «necesita barreras éticas»

«La elección de los fines adecuados de la inteligencia artificial solo debe y puede estar en manos humanas», afirma el teólogo Paolo Benanti en una reciente entrevista publicada por Vatican News. El teólogo y filósofo franciscano, miembro del comité de expertos de la ONU sobre inteligencia artificial, señala que «la máquina que hasta cierto punto puede determinar qué medios son los más apropiados para perseguir un fin, por su propia naturaleza necesita unas barreras éticas muy amplias, porque el fin no justifica los medios».

En esta línea, «a pesar de lo que puedan hacernos pensar algunas películas de ciencia ficción, la conciencia no es algo que pertenezca a la máquina», dice Benanti, porque «no hay una subjetividad que se cuestione a sí misma o que cuestione el mundo». Es simplemente «una máquina que realiza tareas» y para ello «recibe sus fines del ser humano».