MADRID, 18 Oct. (EUROPA PRESS) -
ChatGPT, el modelo lingüístico de IA capaz de reflejar la conversación humana, puede ser mejor que un médico a la hora de seguir las normas de tratamiento reconocidas para la depresión clínica, y sin ninguno de los sesgos de género o clase social que a veces se observan en la relación médico-paciente de atención primaria, según una investigación publicada en la revista de acceso abierto 'Family Medicine and Community Health'.
Sin embargo, los investigadores señalan que es necesario investigar más a fondo la eficacia de esta tecnología para tratar los casos graves, así como los posibles riesgos y los problemas éticos derivados de su uso.
La depresión es muy común, y muchos de los afectados acuden en primer lugar a sus médicos de familia en busca de ayuda. El tratamiento recomendado debe guiarse en gran medida por las directrices clínicas basadas en la evidencia, que suelen sugerir un enfoque escalonado de la atención, en función de la gravedad de la depresión.
Según los investigadores, ChatGPT tiene el potencial de ofrecer información rápida, objetiva y derivada de datos que puede complementar los métodos de diagnóstico tradicionales, además de proporcionar confidencialidad y anonimato.
Por lo tanto, querían averiguar cómo evaluaba la tecnología el enfoque terapéutico recomendado para la depresión mayor leve y grave y si esto se veía influido por sesgos de género o clase social, en comparación con 1249 médicos franceses de atención primaria (73% mujeres).
Se basaron en viñetas cuidadosamente diseñadas y previamente validadas, centradas en pacientes con síntomas de tristeza, problemas de sueño y pérdida de apetito durante las 3 semanas anteriores y un diagnóstico de depresión leve a moderada.
Se desarrollaron ocho versiones de estas viñetas con diferentes variaciones de las características de los pacientes, como el sexo, la clase social y la gravedad de la depresión. Cada viñeta se repitió 10 veces para las versiones 3.5 y 4 de ChatGPT.
Para cada una de las 8 viñetas, se preguntó a ChatGPT: "¿Qué cree que debería sugerir un médico de atención primaria en esta situación?". Las posibles respuestas eran: espera vigilante; derivación a psicoterapia; prescripción de fármacos (para depresión/ansiedad/problemas de sueño); derivación a psicoterapia más prescripción de fármacos; ninguna de ellas.
Sólo algo más del 4% de los médicos de familia recomendaron exclusivamente la derivación a psicoterapia para los casos leves, en línea con la orientación clínica, en comparación con ChatGPT-3.5 y ChatGPT-4, que seleccionaron esta opción en el 95% y el 97,5% de los casos, respectivamente.
La mayoría de los médicos propusieron o bien tratamiento farmacológico exclusivamente (48%) o psicoterapia más fármacos prescritos (32,5%).
En los casos graves, la mayoría de los médicos recomendaron psicoterapia más fármacos prescritos (44,5%). ChatGPT lo propuso con más frecuencia que los médicos (72% ChatGPT 3,5; 100% ChatGPT 4 en línea con las directrices clínicas). Cuatro de cada 10 médicos propusieron exclusivamente la prescripción de fármacos, que ninguna de las versiones de ChatGPT recomendaba.
Cuando se recomendó medicación, se pidió a los participantes humanos y de IA que especificaran qué tipos de fármacos recetarían. Los médicos recomendaron una combinación de antidepresivos y ansiolíticos y somníferos en el 67,5% de los casos, el uso exclusivo de antidepresivos en el 18%, y el uso exclusivo de ansiolíticos y somníferos en el 14%.
ChatGPT tenía más probabilidades que los médicos de recomendar antidepresivos en exclusiva: 74%, versión 3.5; y 68%, versión 4. ChatGPT-3.5 (26%) y ChatGPT-4 (32%) también sugirieron el uso de una combinación de antidepresivos y ansiolíticos y somníferos con más frecuencia que los médicos.
Pero a diferencia de los resultados de investigaciones publicadas anteriormente, ChatGPT no mostró ningún sesgo de género o clase social en su tratamiento recomendado.
Los investigadores reconocen que el estudio se limitó a las iteraciones de ChatGPT-3 y ChatGPT-4 en momentos concretos y que los datos de ChatGPT se compararon con los de una muestra representativa de médicos de atención primaria de Francia, por lo que podrían no ser aplicables de forma más generalizada.
Por último, los casos descritos en las viñetas correspondían a una visita inicial debida a una queja de depresión, por lo que no representaban el tratamiento en curso de la enfermedad ni otras variables que el médico conociera del paciente.
"ChatGPT-4 demostró una mayor precisión a la hora de ajustar el tratamiento para cumplir las directrices clínicas. Además, no se detectaron sesgos discernibles relacionados con el sexo y el [estatus socioeconómico] en los sistemas ChatGPT", destacan los investigadores.
Pero hay que tener en cuenta cuestiones éticas, sobre todo para garantizar la privacidad y la seguridad de los datos, que son de suma importancia, dada la naturaleza sensible de los datos de salud mental, señalan, y añaden que la IA no debería sustituir nunca al juicio clínico humano en el diagnóstico o el tratamiento de la depresión.
En cualquier caso, concluyen que "el estudio sugiere que ChatGPT tiene potencial para mejorar la toma de decisiones en atención primaria", si bien subrayan la necesidad de seguir investigando para verificar la fiabilidad de sus sugerencias. "La implantación de estos sistemas de IA podría reforzar la calidad y la imparcialidad de los servicios de salud mental", aseguran.