Los modelos de inteligencia artificial pueden detectar depresión y riesgo de suicidio a través del lenguaje
Un estudio con más de mil pacientes demuestra que los sistemas de procesamiento de texto logran identificar problemas de salud mental con una precisión superior al 70%
Anthropic estrena Claude 4, nuevos modelos de inteligencia artificial para revolucionar la programación y el razonamiento complejo

Los grandes modelos de lenguaje (LLM), como ChatGPT, han demostrado ser capaces de detectar depresión y riesgo de suicidio analizando las respuestas de pacientes a tests psicológicos, según revela una investigación publicada en Jama Open Network que analizó datos de 1.064 pacientes psiquiátricos.
El estudio, desarrollado por investigadores del Centro Médico Boramae de Seúl, evaluó la capacidad de estos sistemas de inteligencia artificial para identificar riesgos de salud mental a partir de narrativas obtenidas mediante el Test de completar frases (SCT, por sus siglas en inglés), una prueba psicológica que requiere que los pacientes completen oraciones inacabadas.
Precisión comparable a otros métodos diagnósticos
Los responsables del estudio precisan que, a pesar de que estos modelos "demuestran potencial" para detectar ese tipo de riesgos, "es esencial seguir mejorando el rendimiento y la seguridad antes de su aplicación clínica", aunque los resultados mostraron que tanto los modelos de lenguaje como los sistemas de análisis de texto lograron una precisión superior al 70% en la detección de depresión clínicamente significativa y alto riesgo de suicidio. Esta cifra se sitúa en niveles comparables a otros métodos de cribado utilizados en psiquiatría.
"Los modelos generales, sin entrenamiento específico en el dominio médico, pueden interpretar suficientemente el sentimiento en las narrativas de los pacientes", explican los autores del estudio, que procesaron un total de 52.627 respuestas completadas.
La investigación se centró en cuatro tipos de narrativas obtenidas del test: autoconcepto, familia, percepción de género y relaciones interpersonales. Los resultados más precisos se obtuvieron con las primeras, las narrativas de autoconcepto.
Relevancia de las narrativas personales
Ese resultado no es casual. Las narrativas sobre el autoconcepto reflejan las actitudes de una persona hacia sus propias habilidades, culpa, objetivos, pasado y futuro, elementos que se alinean con la tríada cognitiva de Beck, un modelo psicológico que identifica patrones de pensamiento negativos característicos de la depresión.
Los investigadores emplearon diferentes versiones de modelos de lenguaje, incluyendo sistemas con hasta 200.000 millones de parámetros, y compararon su rendimiento tanto en modalidad zero-shot (sin ejemplos previos) como few-shot (con algunos ejemplos de referencia).
Paralelamente, utilizaron modelos de embeddings de texto, una tecnología que convierte las palabras y frases en representaciones numéricas que capturan su significado semántico. Estos embeddings (incrustaciones) permitieron entrenar algoritmos de aprendizaje automático específicamente adaptados al conjunto de datos del estudio, logrando en algunos casos un rendimiento superior al de los modelos de lenguaje generales.
Aplicaciones potenciales y limitaciones
El estudio sugiere que estos sistemas podrían ser especialmente útiles para identificar a personas que, de otro modo, podrían ser defensivas o reticentes a revelar sus estados emocionales en evaluaciones tradicionales. Los tests proyectivos como el SCT permiten que los individuos expresen sus cogniciones depresivas de manera más abierta.
Sin embargo, los investigadores advierten sobre varias limitaciones importantes. El estudio se basó únicamente en pacientes que ya visitaban clínicas psiquiátricas, lo que limita la generalización de los resultados a la población general. Además, la clasificación de depresión y riesgo de suicidio se determinó mediante escalas de autoevaluación en lugar de diagnósticos clínicos formales.
Los autores subrayan que, aunque estos modelos muestran potencial para detectar riesgos de salud mental, son necesarias mejoras adicionales en rendimiento y seguridad antes de su aplicación clínica. Las entrevistas clínicas, el historial psiquiátrico completo y las observaciones clínicas siguen siendo esenciales para una evaluación adecuada.
El estudio también plantea consideraciones éticas importantes sobre el uso de modelos de IA en la práctica clínica, especialmente en lo que respecta a la privacidad y el manejo de datos sensibles de salud mental.
Esta investigación representa el primer estudio en examinar el uso de grandes modelos de lenguaje para detectar depresión y riesgo de suicidio basándose en narrativas semiestructuradas de pacientes psiquiátricos, abriendo nuevas vías para el desarrollo de herramientas de cribado en salud mental.
También te puede interesar