Idoia Salazar: «La opinión de la sociedad civil es vital para regular la IA»
Con 15 años de experiencia como experta en ética y regulación de la inteligencia artificial (IA), esta profesora de la Universidad CEU San Pablo es miembro del Observatorio de IA del Parlamento Europeo y del Foro Económico Mundial. También fundó OdiseIA, un espacio de pensamiento y debate «para buscar practicidad en la teoría». Para sobrevivir a sorpresas venideras de la IA, propone una educación de calidad, contar con la opinión de la gente y ofrecer información clara.
¿Cómo está regulada la IA en Europa?
La regulación que hay entrará en vigor el 2 de agosto de 2026. A partir de ese momento, las empresas que usen algoritmos de alto riesgo, es decir, sistemas de IA cuyo impacto recaiga sobre los derechos fundamentales, tendrán que cumplir esas medidas bajo pena de multas económicas. En febrero de 2025 se aplicarán los usos prohibidos, que sobre todo son sistemas de IA que van en contra de los derechos humanos. Por ejemplo, cámaras de reconocimiento facial apuntando a la vía pública con recogida de datos en tiempo real.
¿Esto podría provocar una fuga de empresas a otros lugares menos regulados?
Sí. Hay que aclarar que los organismos europeos han legislado sobre el riesgo que tienen los sistemas de IA, no sobre la tecnología. De hecho, la mayor parte de los modelos que existen no están sometidos a la regulación, porque no son algoritmos de alto riesgo. Hace falta informar mejor sobre las verdaderas repercusiones de esta regulación.
Este miércoles se ha cerrado la consulta pública de la Comisión Europea sobre estas directrices. ¿Qué importancia tiene que la sociedad civil participe en estos procesos?
Mucha, porque los que van a recibir el impacto de la tecnología son los consumidores; somos todos. La opinión y percepción de las organizaciones son vitales para regularla bien. También para ver cómo afecta a los diversos sectores, ya que la incidencia en el sector de la salud será diferente al agrario o a los medios de comunicación. Contar con diferentes áreas, no solamente a nivel científico o jurídico, es muy importante para abordar de manera práctica, útil y segura esta regulación.
En España tenemos un Sandbox piloto. ¿Qué es y para qué sirve?
Es un proceso para ayudar a startups y pymes a adaptarse a la regulación europea. A finales de este mes se publicará un real decreto y habrá una convocatoria pública para las empresas que quieran puedan entrar en este Sandbox piloto. Estarán durante un tiempo controladas usando estos sistemas, de cara a mejorar las guías que ya ha desarrollado el Gobierno y que después se sacarán a la luz para que las utilicen todas las empresas y organizaciones que usen o desarrollen modelos de IA de alto riesgo. Así, antes de que entre en vigor la regulación europea, todas las empresas de España tendrán una guía práctica de cómo afrontarla.
¿Por qué creó OdiseIA y qué labor hace?
Para buscar practicidad en toda la teoría que había en torno al impacto social y ético de la IA. Lo creamos una serie de expertos interdisciplinares en IA de muy alto nivel: un letrado del Consejo de Estado, una periodista premio Pulitzer, expertos en física o catedráticos de economía. Ahora hay más de 200 expertos. Ayudamos a organizaciones a mejorar la percepción social sobre el impacto real de la IA, damos charlas en colegios y asesoramos a las empresas sobre cómo seguir con sus negocios de IA, pero aplicando medidas éticas.
¿Qué posibles escenarios futuros nos plantea la IA?
Es una tecnología que todavía no ha llegado a su punto álgido. Vamos a vivir sorpresas que revolucionarán nuestra forma de actuar, relacionarnos y vivir el futuro como sociedad. Hablo, por ejemplo, de tener un chatbot —un programa capaz de tener una conversación en tiempo real— para cada uno, personalizado, como si fuera un secretario personal e interconectado con servicios públicos y privados. Pero nuestro futuro depende de nuestro trabajo ahora. Si no cultivamos el criterio con más políticas públicas en educación donde se explique bien cómo incide la IA en nuestra vida, el futuro será poco halagüeño. Hay que enseñar que detrás de la IA hay empresas y organismos con intereses específicos.