Los grandes modelos de lenguaje, como GPT, tienen potencial para ver signos de depresión
Los grandes modelos de lenguaje, como Chat GPT, tienen el potencial para detectar riesgos para la salud mental -incluida la depresión y el suicidio- en pacientes ya bajo tratamiento psiquiátrico, señala un estudio que publica Jama Open Network.
La investigación realizada por un equipo coreano indica que a pesar de que estos modelos “demuestran potencial” para detectar ese tipo de riesgos, “es esencial seguir mejorando el rendimiento y la seguridad antes de su aplicación clínica”.
El equipo examinó el potencial de grandes modelos de lenguaje, que son sistemas de inteligencia artificial entrenados con grandes cantidades de datos, por lo que son capaces de comprender y generar lenguaje natural.
Ese mismo potencial lo muestran los embeddings (modelos de inscrustación), una técnica de procesamiento del lenguaje natural que convierte el lenguaje humano en vectores matemáticos y que también fueron analizados por el equipo.
El estudio se basó en datos de 1.064 pacientes psiquiátricos de entre 18 y 39 años que realizaron diversas pruebas de autoevaluación y de frases incompletas.
Estas últimas consisten en proponer a un paciente una serie de oraciones inacabadas que tiene que terminar con lo primero que le venga a la cabeza y dar información subjetiva, por ejemplo, sobre el concepto que tiene de sí mismo o de las relaciones interpersonales.
Los datos fueron procesados por grandes modelos de lenguaje como GPT-4, Gemini 1.0 Pro o Google Deepmind y por otros de incrustación de texto como text-embedding-3-large OpenAI.
La investigación apunta que estos modelos “han demostrado su potencial en la evaluación de riesgos para la salud mental”, incluida la depresión y el suicidio, “a partir de datos narrativos de pacientes psiquiátricos”.
En un comentario sobre el estudio, en el que no participó, Alberto Ortiz, del Hospital Universitario La Paz (Madrid), señaló que el estudio se realizó en pacientes que ya están en tratamiento psiquiátrico, por lo que generalizar sus resultados para aplicar esta metodología en la detección de riesgos en población común “no es posible, por el momento”.
Ortiz dijo en Science Media Centre, una plataforma de recursos científicos, que la aplicación de la IA en salud mental, en todo caso, tendrá que poner el foco en las narrativas subjetivas de las personas, como se hace en esta investigación.
Sin embargo, consideró que “una cosa es detectar riesgos y hacer un cribado, y otra muy distinta es tratar a las personas con sufrimiento psíquico, una tarea que va más allá de aplicar una solución tecnológica y en la que la subjetividad del profesional resulta imprescindible para desarrollar el vínculo terapéutico”.
Lo más visto hoy
- 1Detuvieron a una mujer por el ataque a tiros al policía de Drogas Ilícitas « Diario La Capital de Mar del Plata
- 2Se derrumbó el techo de un kiosco y aplastó a un hombre « Diario La Capital de Mar del Plata
- 3Cayó un helicóptero en una cancha de tenis: tres heridos « Diario La Capital de Mar del Plata
- 4Le pegaron un tiro en el pecho a un joven en el barrio Juramento « Diario La Capital de Mar del Plata
- 5Agobiante: la máxima pasó los 35° y se mantiene la alerta por tormentas « Diario La Capital de Mar del Plata
