Ana Freire: «Los que se quieren suicidar dejan pistas»
Esta ingeniera gallega y doctora en informática quiere darle la vuelta a las terribles cifras del suicidio y por eso sale al encuentro de los jóvenes allá donde están, en las redes sociales. Entrena sistemas de inteligencia artificial (IA) para detectar en las publicaciones el riesgo de suicidio y les ofrece ayuda. Además de dirigir este proyecto llamado STOP, es vicedecana de Impacto Social e Innovación Académica en la UPF Barcelona School of Management.
¿Qué es STOP y cómo funciona?
Es un proyecto en el que colaboramos ingenieros, psicólogos, psiquiatras y terapeutas, donde aplicamos IA y análisis de datos en redes sociales para ofrecer ayuda a través de estas plataformas a personas con problemas de salud mental. Etiquetamos publicaciones de usuarios en riesgo y con ellas alimentamos algoritmos de IA que entienden cuáles son los patrones. Extraemos un perfil común a las personas que tienen ideación suicida, depresión o trastornos de la conducta alimentaria (TCA) y anónimamente les enviamos a través de Instagram y Facebook anuncios con números de ayuda, como el Teléfono de la Esperanza o el de prevención del suicidio, que son gratuitos 24 horas.
¿Cuáles son esos perfiles que extraen?
—En el de ideación suicida, el usuario más habitual es una mujer de menos de 39 años. En la depresión, de menos de 29 y en TCA el 60 % es de menos de 19 años. Son perfiles muy jóvenes, e incluso muchos menores de edad. También nos fijamos en los temas de los que hablan. Por ejemplo, en el primero utilizan términos explícitos de métodos de suicidio y autolesiones; también lo hacen sobre temas de pareja, abuso de sustancias, de drogas y alcohol, o abuso sexual. En el caso de la depresión, hablan de problemas económicos, soledad o insomnio. Y en TCA ya tienen un vocabulario propio relacionado con la anorexia o la bulimia y hablan sobre dietas, pérdida de calorías o consumo de laxantes.
¿Cómo nació la iniciativa?
Un día encontré la publicación de una chica que decía que se iba a suicidar y escribió una carta de despedida en redes sociales diciendo que odiaba la imagen que veía de ella en el espejo y que no se quería levantar por las mañanas. Estos usuarios generalmente dejan pistas en las redes antes de cometer el suicidio, con comentarios como este. Entendemos que para un humano es difícil reconocer este tipo de pistas, pero la IA tiene el potencial de encontrar patrones en grandes cantidades de datos, y por eso la utilizamos.
¿Qué impacto está teniendo?
Llevamos varias campañas lanzadas: una en 2020-2021, otra en 2021-2022 y otra en 2023-2024. La primera, por ejemplo, incrementó en un 60 % el número de llamadas al teléfono de prevención del suicidio. Estas campañas siempre se lanzan en toda España; las dos primeras duraron un mes y llegaron a más de medio millón de personas cada una. En la segunda campaña añadimos la opción del chat y llegamos a recibir 1.500 al mes; de todas las edades, aunque casi el 40 % era de menores de edad. Fue una locura. Con la última campaña, que duró tres meses, llegamos a doce millones de usuarios. Con esto vemos que necesitamos adaptarnos a las nuevas generaciones y a sus maneras de comunicarse.
Utilizan las redes sociales, que a la vez son el muro de expresión de muchos jóvenes, para llegar hasta ellos.
Que te llegue este anuncio de manera personal, que nadie sepa que lo estás recibiendo, ni que estás llamando ni quién eres, que nadie te juzgue y puedas llamar a la hora y en el momento que quieras, creo que es la clave de que funcione tan bien. Todavía hay un estigma grande con la salud mental en nuestra sociedad; cuesta pedir ayuda y hablar de nuestros sentimientos con otras personas. Por eso, esa privacidad e intimidad son importantes. Es cierto que las redes sociales también pueden acelerar los problemas de salud mental, pero si los jóvenes y los problemas están ahí, ¿por qué no va a estar también ahí la solución?
¿Cómo puede influir la IA en nuestra salud mental en el futuro?
Con proyectos como este, de manera muy positiva. Pero el campo de la IA es muy amplio y está claro que también forman parte de ella los sistemas recomendados de contenidos de redes sociales, que pueden crear problemas de adicción. Hay que ser conscientes de cómo se está usando la IA y proteger nuestra salud mental sabiendo cómo actúan estos sistemas.