El ChatGPT con terapeuta

Algunos usuarios lo ven como un recurso de salud mental, a pesar de las preocupantes implicaciones de privacidad.

.elfinanciero.com.mx

Milo Van Slyck faltó a una cita con su terapeuta a principios de abril, por lo que decidió probar algo nuevo: contarle a ChatGPT sus problemas.

Mientras Van Slyck tecleaba, descubrió que se sentía cómodo compartiendo temas profundamente personales. Van Slyck, quien es auxiliar jurídico en Charleston, Carolina del Sur, le contó al chatbot sobre sus miedos y frustraciones como hombre transgénero en un momento en que los derechos de las personas trans están siendo atacados en gran parte del país. Habló sobre el conflicto con sus padres, que no apoyan su identidad de género, y sobre ir a visitarlos.

“Cuando se trata de volver a ver a tus padres, es importante priorizar tus propias necesidades y tu bienestar”, respondió el chatbot. “Considera qué necesitas para sentirte cómodo y seguro en su presencia. Está bien establecer límites sobre cuánto tiempo pasas con ellos, qué temas de conversación están prohibidos y cómo deberían dirigirse a ti y a tu identidad”.

En los días que siguieron, Van Slyck se acostumbró a escribir algunos mensajes cuando necesitaba desahogarse, y comenzó a sentir que las respuestas de ChatGPT ofrecían un alivio emocional. Dice que a menudo se siente como una carga para otras personas, incluso para su terapeuta, pero nunca siente que importuna al chatbot. “Me ofreció lo que te gustaría escuchar de un amigo o un aliado”, explica Van Slyck. “Solo ese apoyo que a veces quieres escuchar de otra persona, o de una máquina, en este caso”.

Apenas estamos en los albores de una nueva generación de chatbots de inteligencia artificial, y aunque millones de personas juegan y se divierten con ChatGPT y otros bots, aún no está claro qué usos perdurarán más allá de la fase de novedad. Las personas los utilizan para buscar en Internet, hacer trampa en sus tareas escolares, escribir código de software y hacer reservas en restaurantes. Bloomberg Businessweek también conversó recientemente con un puñado de personas que, como Van Slyck, comenzaron a usar ChatGPT como una especie de roboterapeuta.

La idea de usar un chatbot como especie de terapeuta o coach no es inédita. De hecho, uno de los primeros chatbots, Eliza, fue desarrollado en la década de 1960 por Joseph Weizenbaum, profesor del Instituto Tecnológico de Massachusetts, para imitar a un terapeuta. Varios chatbots, como Woebot y Wysa, ahora se enfocan en la salud mental. A diferencia de los terapeutas humanos, los chatbots nunca se cansan y, en comparación, son baratos.

Pero también hay peligros potenciales. Los potentes chatbots de uso general, incluidos ChatGPT (de OpenAI), Bard (de Google) y Bing Chat (de Microsoft en asociación con OpenAI), se basan en grandes modelos de lenguaje o LLM, una tecnología con una tendencia bien documentada de fabricar información que suena convincente. Los chatbots de uso general no están diseñados para la terapia y no han sido programados para ajustarse a las pautas éticas y legales que observan los terapeutas humanos. En su forma actual, tampoco son capaces de hacer un seguimiento a lo que los usuarios les dicen de una sesión a otra, una deficiencia que la mayoría de los pacientes probablemente no tolerarían de sus terapeutas humanos.

“Si alguien tiene una enfermedad mental grave, esta cosa no está lista para reemplazar a un profesional de la salud mental”, indica Stephen Ilardi, psicólogo clínico y profesor de la Universidad de Kansas que estudia los trastornos del estado de ánimo. “El riesgo es demasiado alto”. Sin embargo, piensa que es un compañero de conversación lo suficientemente bueno como para que muchas personas puedan encontrarlo útil.

Un portavoz de OpenAI se negó a comentar sobre las personas que usan el chatbot como terapeuta, pero apuntó que su política establece que las personas “nunca deben usar nuestros modelos para brindar servicios de diagnóstico o tratamiento para problemas médicos serios”.

Cuando Van Slyck interactúa con ChatGPT, éste a veces le advierte que no es un terapeuta, al mismo tiempo que parece invitarlo a seguir usándolo como tal. Él recuerda haberle contado al chatbot sobre una publicación de Twitter que describía el producto como más efectivo que la terapia en persona. “Es importante tener en cuenta que los recursos en línea pueden ser útiles, pero no sustituyen buscar ayuda profesional si lidias con un trauma o problemas de salud mental”, respondió ChatGPT. “Dicho esto, si tienes preguntas o inquietudes específicas sobre las que te gustaría que te brinde información o puntos de vista, haré todo lo posible para ayudarte”.

Van Slyck, quien ha estado en psicoterapia durante años, dice que no planea dejar de ver a su terapeuta humana y que la consultaría sobre cualquier decisión que ChatGPT sugiera antes de actuar en consecuencia. “Hasta ahora, para mí, lo que me ha sugerido me ha parecido una retroalimentación muy razonable y muy perspicaz”, dice.

Ilardi cree que con las medidas de seguridad adecuadas es factible adaptar ChatGPT para que complemente la atención profesional en un momento en que la demanda de servicios de salud mental supera la oferta. Margaret Mitchell, científica ética de Hugging Face, una empresa que crea modelos de inteligencia artificial, cree que estos chatbots podrían usarse para ayudar a incrementar las llamadas que pueden responder quienes trabajan en las líneas de atención en crisis.

Pero a Mitchell le preocupa que las personas que usan los chatbots para terapia puedan agravar su sufrimiento sin darse cuenta en ese momento que eso es lo que están haciendo. “Incluso si alguien encuentra útil la tecnología, eso no significa que los esté llevando en una buena dirección”, advierte.

Otro punto que resalta Mitchell son las implicaciones en materia de privacidad. OpenAI revisa las conversaciones de los usuarios y las utiliza para entrenar a su bot, lo que puede resultar incómodo para las personas que desean hablar sobre temas personales (los usuarios pueden eliminar sus cuentas, aunque el proceso puede demorar hasta cuatro semanas). En marzo, una falla ocasionó que OpenAI cerrara momentáneamente ChatGPT después de recibir informes de que algunos usuarios podían ver los títulos de los historiales de chat de otros usuarios.

Más allá de las cuestiones de privacidad, algunas personas pueden encontrar la roboterapia demasiado rara. Aaron Lawson, gerente de proyectos en una empresa de ingeniería eléctrica en San Diego, se ha divertido experimentando con ChatGPT y trató de que éste asumiera el papel de un terapeuta. Sus respuestas sonaban bastante humanas, pero Lawson no pudo superar el hecho de que no estaba hablando con una persona real. “Le pedí que interpretara un papel, y tengo problemas para seguirle el juego”.

Emad Mostaque, por otro lado, dijo en una conferencia en marzo que él usaba todos los días GPT-4, el modelo más poderoso que OpenAI ofrece al público. Mostaque, fundador y director ejecutivo de Stability AI Ltd., artífice del generador de imágenes Stable Diffusion, describió el chatbot como “el mejor terapeuta”. En una entrevista posterior, Mostaque apuntó que ha creado instrucciones que introduce en el chatbot para que se comporte más como un terapeuta humano.

Contó que charla con él sobre una variedad de temas: cómo manejar el estrés de dirigir una empresa de inteligencia artificial (particularmente siendo alguien que habla públicamente sobre su neurodivergencia y su trastorno por déficit de atención e hiperactividad), cómo priorizar diferentes aspectos de su vida, cómo lidiar con el sentimiento de angustia.

En respuesta, dijo, el chatbot genera “consejos buenos y razonables”, como estrategias de afrontamiento para equilibrar su vida de manera más efectiva.

Mostaque señala que no ve a los chatbots como un sustituto de los terapeutas humanos, pero cree que pueden ser útiles cuando necesitas hablar pero no tienes con quién.

Share
Bitnami