Beatriz Busaniche: «El algoritmo no tiene moral, solo estadística»
Argentina de corazón y académica de profesión, dirige una de las organizaciones más antiguas de América Latina en defensa de los derechos humanos en entornos tecnológicos. La Fundación Vía Libre comparte una visión de la tecnología digital que debe estar al servicio de las personas y disponible para ellas. Sin pisotear a los más débiles.
¿Ética e inteligencia artificial (IA) pueden ir de la mano?
No hay una definición clara que marque los límites de lo que se entiende por IA. Hoy se habla mucho sobre ella, pero no existe una definición que permita afirmar que cualquier cosa que digamos sea apropiada para todos los campos. Igual que el término «vehículo» se refiere tanto a un cohete como a una bicicleta, con la IA pasa lo mismo: es difícil concretar qué es una cosa y qué es otra. Sin embargo, la impronta ética que tienen todas las relaciones sociales implica un marco legal o de derechos humanos que puede verse afectado con el uso de una tecnología.
El Papa Francisco ha advertido de que la IA puede favorecer «una cultura del descarte», ¿ya está sucediendo?
Sí, y hay evidencias por ejemplo en la utilización de sistemas automatizados discriminatorios para poblaciones desfavorecidas; en asignaciones de créditos bancarios, ofertas de empleo, ayudas sociales, o evaluaciones de desempeño laboral. También está la preocupación sobre la sustitución del trabajo humano por estas tecnologías. En una sociedad capitalista, donde el trabajo es estructurante de las relaciones sociales, prometen suplantar muchas labores humanas y eso genera mucho pánico moral. El problema aquí no es solo tecnológico, sino cómo vamos a distribuir socialmente los excedentes de productividad que nos facilitan estos modelos.
Sin embargo, se nos ofrecen cada vez más aplicaciones para hacernos la vida y el trabajo más llevadero. ¿Nos estamos fiando demasiado de la IA sin tener en cuenta quién está detrás?
Definitivamente. Cada vez que ChatGPT te da una respuesta, ¿de quién es realmente esa voz? Para muchos adolescentes esa es su fuente de información y aceptan las respuestas sin cuestionarlas. Así funciona la construcción de verdad en estos sistemas; quienes manejan el entrenamiento de estos modelos definen esa verdad. Los algoritmos retroalimentan lo que más se expresa y eso tiende a dar validez al discurso más ruidoso. El algoritmo no tiene moral ni valores; solo estadística.
Entones, ¿intervienen en la formación del pensamiento y nos muestran lo que queremos ver?
Claro, sin conocer otro punto de vista y reafirmando aceptaciones sociales de cosas que ya creíamos superadas. Se han reinstalado discursos que como sociedad habíamos dejado atrás, como negacionismos de las dictaduras o discursos contra los derechos humanos. Estos sistemas tienden a simplificar y amplificar discursos que generan más interacción en las plataformas y esos son los que apelan a los sentimientos más primarios, como la ira y el odio. Todo ello conecta con la irracionalidad, la falta de reflexión y la incapacidad de escuchar al otro. Pero no es la IA la que toma decisiones por sí misma, sino los humanos que la programan y deciden su uso. Muchas veces se presenta a la IA como responsable cuando son las personas, las grandes empresas y los gobiernos.
¿Qué implica que parte de la humanidad no tenga acceso a estas tecnologías inteligentes?
Acceso hay cada vez más. La cuestión es más bien de dominio de la tecnología; usarla de forma que uno la comprenda, la pueda interpelar, pueda dimensionar lo que significa, entender lo que hace y participar en su desarrollo con conciencia de cómo funciona. Desde hace más de 20 años el sector privado ha impulsado el acceso a las tecnologías porque dan un mercado, pero se trata de que los países desarrollen sus propias capacidades para generar sus sistemas, modelos y su propio entrenamiento de IA.
Cada vez son más voces las que reclaman que la IA ponga en el centro al ser humano. ¿Se está avanzando en esto?
El pánico nunca ha sido un buen consejero para las luchas sociales, porque es desmovilizador y triste. En la fundación adoptamos una mirada constructiva con investigación y sin criminalizar la tecnología, sino buscando estrategias éticas alrededor de ella. La clave es interpelar a los profesionales que desarrollan la IA y para ello tenemos que estar presentes en los espacios donde se crea la tecnología. Siempre teniendo en cuenta que la discusión no es tecnológica, sino política. Hasta que no traslademos este debate a lo político, seguiremos en un escenario difícil.