Dos ingenieros explican sus proyectos de IA: uno detecta conductas suicidas en redes y otro mejora el diagnóstico y las terapias
JESSICA MARTÍN / RTVE.ES
La inteligencia artificial (IA) puede convertirse en una poderosísima aliada a la hora de atajar esa otra pandemia a la que se enfrenta la sociedad actual, la de los trastornos y enfermedades mentales. Lo afirman de manera tajante los responsables de dos iniciativas que están empleando esta tecnología en beneficio de la salud mental: el Proyecto STOP, que usa un algoritmo para detectar tentativas suicidas en redes sociales, y la ‘start up’ Aimentia Health, que ha desarrollado un sistema que ayuda a psicólogos y psiquiatras a ser más precisos con el diagnóstico y personalizar sus terapias.
Ambas ideas, impulsadas desde diferentes universidades, comenzaron a materializarse hace varios años de forma humilde, pero es ahora cuando se están desarrollando plenamente y cuando empiezan a ganar terreno en otros países.
Proyecto STOP: un algoritmo para detectar la depresión y prevenir el suicidio
Ana Freire, ingeniera informática de la UPF Barcelona School of Management, de la Universitat Pompeu Fabra, lidera al equipo multidisciplinar que está detrás del Proyecto STOP, cuyo eje central es un algoritmo que permite detectar tendencias suicidas en redes sociales «rastreando» una serie de patrones. En su desarrollo y en las acciones de ayuda posteriores participan actualmente varias universidades, hospitales, centros de investigación y fundaciones de España, Francia y Suiza.
«Lo hacemos como lo hacen las grandes empresas para llegar a potenciales compradores, que es a través de anuncios. Lo que hacemos es intentar caracterizar cómo se expresan o qué rasgos tienen los usuarios con alto riesgo de suicidio, todo esto de manera completamente anónima, y después lanzamos campañas dirigidas a usuarios que encajan dentro de estas características, pero que no sabemos quiénes son», explica Freire, quien precisa que recientemente han ampliado los objetivos.
Al ir colaborando con numerosos psicólogos y psiquiatras, continúa, vieron que «detrás del 90% de suicidios generalmente hay una enfermedad mental y que la depresión es la más habitual». Por eso, empezaron también a estudiar la depresión y eso les llevó a «una comunidad muy fuerte» que con frecuencia demostraba comportamientos suicidas o autolesiones: la de los trastornos de la conducta alimentaria.
«Para caracterizar a los usuarios utilizamos análisis de datos e inteligencia artificial, de manera que nos podemos descargar muchas publicaciones que hablan de suicidio, por ejemplo, y aprender cuáles son las características comunes a usuarios que están en riesgo. Alguna de estas características son demográficas. Por ejemplo, el perfil de usuario con anorexia suele ser el de una mujer de menos de 29 años. De hecho, más del 60% tiene menos de 19 años y muestra intereses en dietas muy estrictas, dietas veganas o tablas de ejercicios muy extremas. Nosotros lanzamos las campañas a estos usuarios», detalla la ingeniera.Recursos para la prevención del suicidio y para el duelo: guías, teléfonos, aplicaciones y asociaciones
Por el momento, las redes sociales en las que actúan son Instagram y Facebook, aunque no descartan abrirse a otras próximamente. Lo que le llega a los usuarios detectados por el algoritmo son mensajes en forma de anuncio que brindan ayuda y facilitan el Teléfono de la Esperanza o el de Prevención al suicidio. Ambas líneas dependen de la Fundació Ayuda y Esperanza de Barcelona, que colabora con el proyecto y atiende llamadas procedentes de cualquier comunidad autónoma.
Teniendo en cuenta que en España el sucidio es la primera causa de muerte no natural dentro de la franja de edad que va de los 15 a los 29 años, ofrecer apoyo a los jóvenes en redes sociales, que son canales donde habitualmente están presentes, es especialmente relevante, apunta la ingeniera.
«La primera campaña la lanzamos las Navidades de 2020, durante 24 días, y llegó a más de 600.000 personas y conseguimos aumentar en un 60 % el número de llamadas al Teléfono de la Esperanza provenientes de redes sociales solo en este periodo. Ves que realmente hay una necesidad de ayuda y que cuando se ofrece esta ayuda se aprovecha. Lo que queremos hacer nosotros es complementar la ayuda que ofrecen las consultas físicas porque mucha gente que comete un suicidio o que tiene problemas de salud mental, nunca recibe un diagnóstico porque no van a una consulta. Sin embargo, quizá a través de redes sociales sí podemos detectar algunas pistas de que tienen un problema y podemos llegar a ayudar», concluye Freire, que tuvo la idea inicial en la que se basa la iniciativa hace unos seis años.
La ‘start up’ Aimentia y su sistema para mejorar el diagnóstico y la terapia
También Edgar Jorba, un joven ingeniero de Tecnologías y Servicios de Telecomunicación, fue quien ideó el proyecto que ahora encabeza. Mientras cursaba la carrera, colaboró con en el Departamento de Innovación del Servicio de Psicología de un centro médico de Barcelona y empezó a darse cuenta de que los profesionales carecían de herramientas modernas con las que ayudar más y mejor a los pacientes.
Por eso, decidió «dar el salto» al emprendimiento y poner en marcha Aimentia Health, una empresa emergente impulsada por la Universitat Oberta de Catalunya que usa la inteligencia artificial para recoger datos de pacientes y crear un sistema que genera hipótesis sobre el problema y su posible solución. Actualmente hay seis personas fijas en el equipo que trabajan con investigadores y profesionales externos, no solo en España sino también —desde finales de 2021— en Chile, Argentina y México.
«En salud mental el problema que tenemos es que muchas veces los cuadros clínicos no son tan definidos como los de medicina general, donde a menudo con pruebas empíricas (como análisis de sangre o radiografías) es fácil poner un tratamiento. Esto en salud mental no siempre se puede realizar, por lo que necesitamos una parte de datos añadidos, de variables dimensionales como el entorno familiar, cosas que no son puramente orgánicas y que pueden aportar información a los médicos para entender mejor qué le está pasando a su paciente y las tendencias que pueden tener», explica Jorba.
Lo que ha creado su equipo es un lenguaje de programación basado tanto en los síntomas como en los patrones no clínicos que hace comparativas anónimas entre perfiles, lanza sugerencias sobre posibles diagnósticos o tratamientos, y permite personalizar terapias. En definitiva, es un «asistente virtual» para profesionales de la psciología, la psiquiatría y la neurología, que en paralelo también ofrece una clínica para pacientes.
Una de las principales ventajas, señala Jorba, es que puede ayudar a los médicos a ser más precisos, teniendo en cuenta que «el 50 % de los pacientes recibe un diagnóstico o tratamiento erróneo».
Los usos profesionales del ‘chatbot’ y las ‘apps’ de «amigos virtuales»
Tanto Freire como Jorba prevén que la inteligencia artificial tendrá un enorme recorrido dentro del ámbito de la salud y se ha visto, apuntan, en lo útil que resultó esta tecnología al inicio de la pandemia de COVID-19 para detectar de forma rápida la sintomatología en pacientes o en cómo ayudó en el diseño de la vacuna.
En la rama específica de la salud mental lo que empieza a despuntar, cuentan, es el empleo de ‘chatbots’ para llegar a los pacientes que necesitan ayuda o para realizar una primera evaluación y detectar si, por ejemplo, hay riesgo de suicidio.
«Son robots conversacionales que pueden ayudar en terapias de salud mental. Sobre todo a los más jóvenes, los de la generación Z, hablar a través del texto directamente a lo mejor les resulta un poco más cómodo porque están acostumbrados a eso (…) También muchos quizá siguen viviendo en casa de sus padres y prefieren chatear en vez de hablar por teléfono para que no les escuchen», señala Freire.
Sin embargo, aunque estos ‘chatbots’ pueden ser muy útiles en esos casos, también son un asunto «delicado», subraya Jorba: «Es muy importante entender muy bien las capacidades que puede tener la inteligencia artificial y limitarla para proteger al paciente. Hemos encontrado casos como el de Nabla, que es un ‘chatbot’ que hace unos meses hizo una prueba con pacientes y, desgraciadamente, recomendó a uno que se suicidase. Si no limitamos la capacidad de la IA y la ponemos a disposición de un paciente directamente, es algo peligroso porque no tenemos el control científico sobre ello».
Por eso, los dos expertos en IA se muestran reticentes respecto a las ‘apps’ que se pueden descargar los usuarios en sus teléfonos móviles; creen que, si están bien diseñadas y solo se usan para mejorar el bienestar emocional, pueden ser útiles para algunas personas, pero advierten de que en ningún caso deben sustituir por completo a la atención profesional o al contacto humano.
Una de las ‘apps’ más llamativas que se basan en un ‘chatbot’ y que se pueden descargar en teléfonos móviles es Replika. En este caso, lo que ofrece es un «amigo» virtual capaz de mantener conversaciones personalizadas (mediante texto o voz) y de acompañar a quienes se sientan solos o necesiten ser escuchados. Para ello utiliza el aprendizaje automático de patrones: cuanto más conversa el usuario con él, más sabe qué necesita leer o escuchar.
Según se detalla en la web de la aplicación, este robot «puede ser especialmente útil para personas que se sienten solas, deprimidas o tienen pocas conexiones sociales. Replika intenta alentar y apoyar a las personas hablando sobre su día, sus intereses y su vida en general».
Y, si el propósito y el funcionamiento que tiene la ‘app’ ya resulta impactante, lo es más aún la idea de la que partió. Su fundadora, Eugenia Kuyda, perdió a su mejor amigo en 2015 por un accidente de tráfico y decidió entonces que podía recrearlo utilizando sus «restos» digitales.
Decidió entonces recopilar las conversaciones que había mantenido con él por internet y pedirle a amigos del joven que le enviaran también las suyas para introducir después toda esa información en un pograma de inteligencia artificial que había creado. El sistema consiguió «replicar» a su amigo de forma virtual y eso derivó, tiempo después, en una aplicación que cuenta actualmente con más de diez millones de usuarios registrados.
El futuro de este tipo de aplicaciones, en particular, y el de la inteligencia artificial, en general, está aún empezándose a escribir, pero los expertos entrevistados ven con mucha claridad que la protección de la salud mental seguirá estrechando lazos con los algoritmos y los ‘bots’. «Soy un fiel defensor desde hace muchos años de que la tecnología está aquí para ayudar«, concluye Jorba.
Fuente: https://www.rtve.es/noticias/20220113/inteligencia-artificial-salud-mental/2253807.shtml