La IA tiene un enorme potencial para mejorar la ciencia y la práctica de la psicoterapia.
Los grandes modelos de lenguaje (LLM) podrían cambiar el futuro de la atención médica conductual, con propuestas para el desarrollo y la evaluación responsables.
El cerebro humano y su relación con la psicología y la psicoterapia.
El cerebro humano es el órgano más complejo y fascinante del cuerpo humano, y es el responsable de todas las funciones mentales, emocionales y conductuales que nos caracterizan como seres humanos.
La psicología es la ciencia que estudia el comportamiento humano y los procesos mentales, y la psicoterapia es una forma de intervención psicológica que busca ayudar a las personas a resolver sus problemas, mejorar su bienestar y alcanzar sus objetivos.
La psicología y la psicoterapia se basan en el conocimiento del cerebro humano y sus funciones, y utilizan diferentes técnicas y estrategias para estimular, modificar o regular las actividades cerebrales que influyen en el estado mental y emocional de las personas.
Algunas de estas técnicas son la terapia cognitivo-conductual, la terapia de aceptación y compromiso, la terapia de exposición, la terapia de relajación, la hipnosis, la meditación, la estimulación magnética transcraneal, entre otras.
Una de las principales causas de discapacidad en todo el mundo es la depresión, el trastorno de ansiedad afectará a casi un tercio de los adultos durante su vida.
Los problemas de salud mental son notables y omnipresentes.
El objetivo no es simplemente aumentar la eficiencia del tratamiento, sino también mejorar vidas y evitar resultados tan graves como el suicidio.
Aunque existen posibles beneficios y preocupaciones de implementar la IA en la psicología y psicoterapia.
Articulando la visión sobre cómo se podría aprovechar la IA en este espacio.
Esto realmente debe hacerse de manera responsable.
Johannes C. Eichstaedt
Una de las aplicaciones más claras de la IA en psicoterapia, y un lugar que debería ser susceptible a las tecnologías del futuro cercano, es su uso como una especie de secretaria sobrealimentada.
Si se hace correctamente, la IA puede ayudar a los médicos con entrevistas iniciales, documentación, notas y otras tareas básicas; es una herramienta para hacerles la vida más fácil.
Partes importantes del proceso de diagnóstico y tratamiento pueden resultar engorrosas tanto para el terapeuta como para el cliente, como los cuestionarios de seguimiento de síntomas o las notas de progreso.
Elizabeth C. Stade
Entregar estas tareas y procesos de nivel inferior a sistemas automatizados podría liberar a los médicos para que puedan hacer lo que mejor saben hacer: diagnóstico diferencial cuidadoso, conceptualización del tratamiento y conocimientos generales.
Más allá de permitir esa “súper ciencia”, la IA ya se está utilizando para analizar transcripciones de sesiones de terapia y determinar si las intervenciones se están utilizando correctamente.
La psicoterapia funciona, pero también sabemos que puede funcionar mejor.
Si somos capaces de utilizar transcripciones para rastrear lo que realmente sucede en la terapia y luego vincularlo con los resultados de la terapia, podemos mejorar nuestras intervenciones clínicas.
Elizabeth C. Stade
Los investigadores proponen un proceso de tres etapas, similar al desarrollo de vehículos autónomos, para integrar de manera efectiva y responsable la IA en la psicoterapia.
En la primera etapa, la etapa de asistencia, la IA realiza tareas concretas simples para apoyar el trabajo del terapeuta.
En la etapa colaborativa, la IA toma la iniciativa al sugerir opciones de terapia, pero los humanos adaptan y toman las decisiones finales.
En la etapa totalmente autónoma, una IA no solo gestiona toda la interacción clínica con los pacientes, sino que también se encarga de aspectos como la facturación y la programación de citas.
Es fundamental que ingenieros y terapeutas no pasen de la primera etapa a la segunda hasta que todos los problemas hayan sido desenterrados y resueltos.
Lo mismo se aplica al pasar de la segunda etapa a la tercera.
Se trata de un proceso lento, más a escala de décadas que de años.
Los investigadores también destacan la importancia de la transparencia.
Los pacientes deben saber que están hablando con un robot y deben poder optar por no participar si así lo desean.
La aprobación de estos sistemas debería seguir algo parecido al proceso de aprobación de medicamentos, con todo evaluado para garantizar la seguridad y eficacia.
Los grandes modelos de lenguaje (LLM), como GPT-3 y GPT-4 de Open AI, que impulsan ChatGPT y PaLM de Google, construidos sobre Inteligencia Artificial, tienen un inmenso potencial para respaldar, aumentar o incluso, eventualmente, automatizar completamente la psicoterapia.
Estos avances proponen abordar la capacidad insuficiente del sistema de salud mental y ampliar el acceso individual a tratamientos personalizados.
Se describe una visión de cómo los LLM podrían permitir una nueva generación de estudios de intervenciones basadas en evidencia a escala, y cómo estos estudios pueden desafiar los supuestos sobre la psicoterapia.
Los LLM tienen una amplia gama de habilidades, que incluyen actuar como agentes conversacionales (chatbots), generar ensayos e historias, traducir entre idiomas, escribir códigos y diagnosticar enfermedades.
Con estas capacidades, los LLM están influyendo en muchos campos, incluidos la educación, los medios, la ingeniería de software, el arte y la medicina.
Han comenzado a aplicarse en el ámbito de la atención médica conductual y los consumidores ya están intentando utilizar los LLM con fines cuasi terapéuticos.
Las aplicaciones que incorporan formas más antiguas de IA, incluida la tecnología de procesamiento del lenguaje natural (NPL), existen desde hace mucho tiempo, por ejemplo, Weizenbaum, 1966.
Por ejemplo, el aprendizaje automático y la NPL se han utilizado para detectar el riesgo de suicidio, identificar la asignación de tareas en las sesiones de psicoterapia e identificar las emociones del paciente dentro de la psicoterapia.
Las aplicaciones actuales de los LLM en el campo de la salud conductual son mucho más incipientes.
Incluyen la adaptación de un LLM para ayudar a los consejeros pares a aumentar sus expresiones de empatía, lo que se ha implementado con clientes tanto en entornos académicos como comerciales.
Las aplicaciones LLM se han utilizado para identificar los comportamientos de terapeutas y clientes en un marco de entrevistas motivacionales.
Los chatbots de salud mental Woebot y Tessa, que se enfocan en la depresión y la patología alimentaria respectivamente, se basan en reglas y no utilizan LLM, el contenido de la aplicación es generado por humanos, y las respuestas del chatbot basadas en reglas predefinidas o árboles de decisión.
Aunque estos y otros chatbots existentes con frecuencia tienen dificultades para comprender y responder a respuestas imprevistas de los usuarios, lo que probablemente contribuye a su baja participación y sus altas tasas de abandono.
Los LLM pueden ser efectivos para completar algunos de estos vacíos, dada su capacidad para generar de manera flexible respuestas humanas y dependientes del contexto.
Estas primeras aplicaciones demuestran el potencial de los LLM en psicoterapia.
Según se generalice su uso, cambiarán muchos aspectos de la prestación de atención en psicoterapia.
Aunque es preciso tener precaución dada la naturaleza compleja de la psicopatología y la psicoterapia.
Con el mayor grado de alcance y autonomía de la IA, es la etapa completamente autónoma, en la que un LLM clínico realizaría una gama completa de habilidades e intervenciones clínicas de manera integrada sin supervisión directa del proveedor.
Se requerirá supervisión humana para garantizar que las aplicaciones en mayores etapas de integración sean seguras para su implementación en el mundo real.
Dada la vasta naturaleza de la atención médica conductual, existen aplicaciones aparentemente infinitas de los LLM.
- Automatización de tareas de administración clínica.
- Medición de la fidelidad del tratamiento.
- Automatización de aspectos de supervisión y formación.
- Atención clínica totalmente autónoma.
- Desarrollo de Nuevas Técnicas Terapéuticas y PBEs.
Recomendaciones para el desarrollo y la evaluación responsables de los LLM clínicos
- Prácticas basadas en evidencia
- Evaluación rigurosa con sentido común
- Implicar la colaboración interdisciplinaria
Criterios de diseño para LLM clínicos eficaces
a) Detectar Riesgo de Daño.
b) Estado “Saludable”.
c) Ayuda en la Evaluación Psicodiagnóstica.
d) Ser receptivo y flexible.
e) Detenerse cuando no esté ayudando o sin confianza.
f) Ser justo, inclusivo y libre de prejuicios.
g) Mostrar empatía, hasta cierto punto.
h) Ser transparente acerca de ser IA.
Aunque el desarrollo de aplicaciones clínicas de LLM podría tener consecuencias no deseadas, como cambios en la estructura y compensación de los servicios de salud mental.
Los LLM podrían facilitar el camino para una próxima generación de ciencia clínica.
Las aplicaciones a largo plazo de los LLM clínicos también podrían facilitar avances significativos en la atención clínica y ciencia clínica.
Los LLM clínicos podrían promover avances en el campo al permitir la combinación de datos sobre lo que trabaja con los casos más difíciles, mediante el uso de redes de investigación práctica.
A nivel de los sistemas de salud, podrían acelerar la implementación y traducción de los hallazgos de la investigación a la práctica clínica, sugiriendo estrategias terapéuticas para psicoterapeutas.
Por ejemplo, promoviendo estrategias que mejoren el aprendizaje inhibitorio durante terapia de exposición.
También, los LLM clínicos podrían aumentar el acceso a la atención, si los chatbots de psicoterapia basados en LLM se ofrecen como opciones de baja intensidad y bajo costo en atención escalonada.
Los psicólogos deberían colaborar activamente con los tecnólogos que crean estas soluciones.
El campo de la IA continúa evolucionando, es esencial que los investigadores y médicos sigan de cerca el uso de LLM en psicoterapia y apostar por un uso responsable y ético para proteger el bienestar y seguridad de los pacientes.
Referencias;
hai.stanford.edu/blueprint-using-ai-psychotherapy
psyarxiv.com/cuzvr
Autores; Elizabeth C. Stade, Johannes C. Eichstaedt
Imágenes; Bing Chat – DALL·E 3