¿El ChatGPT como psicólogo?: advierten sobre el riesgo de usar IA en reemplazo de la terapia
Muchas personas deciden contar sus problemas a la herramienta y esto es algo que preocupan a los profesionales de la salud. “La inteligencia artificial puede ser práctica, dar respuestas rápidas y comprender algunos mecanismos, pero nunca va a vivir las emociones como un ser humano”, opinó un especialista consultado por Infobae
Podría decirse que la inteligencia artificial (IA) llegó para quedarse. A través de aplicaciones cotidianas como Siri y Alexa primero, hasta el ChatGPT en el último tiempo, todo indica que la tecnología fue superándose a sí misma y hoy bien puede desarrollar tareas que hasta no hace mucho sólo podían desempeñar las personas.
Y si bien la IA tiene ciertas habilidades superiores a las de los humanos en tareas específicas, aún enfrenta dificultades para entender el mundo de la misma forma que lo hacemos nosotros.
Es en este contexto que preocupa a algunos especialistas la difusión de noticias acerca de personas que recurren al ChatGPT en lugar de ir al psicólogo, por ejemplo. Es el caso de un joven asistente legal en Charleston, Carolina del Sur, quien a principios de abril faltó a una cita con su terapeuta y decidió contarle a ChatGPT sobre sus problemas.
Curiosamente, mientras Van Slyck escribía comenzó a notar que se sentía cómodo “discutiendo” con el chatbot una variedad de temas profundamente personales. Le contó, por ejemplo, sobre sus miedos y frustraciones como hombre transgénero en un momento en que los derechos de las personas transgénero están siendo atacados en gran parte del país. Habló, también, del conflicto con sus padres, que no apoyan su identidad de género, y sus preparativos para una próxima visita.
“Cuando se trata de volver a ver a tus padres, es importante priorizar tus propias necesidades y bienestar -le respondió el chatbot-. Considera lo que necesitas para sentirte cómodo y seguro en su presencia. Está bien establecer límites sobre cuánto tiempo pasas con ellos, qué temas de conversación están prohibidos y cómo se dirigen a ti y a tu identidad”.
En los días que siguieron, según publicó el sitio Bloomberg, el joven se acostumbró a escribir algunos mensajes cuando necesitaba desahogarse, y comenzó a sentir que las respuestas de ChatGPT ofrecían una liberación emocional.
Todo esto sucede mientras aún no está claro cuáles serán los alcances de este tipo de herramientas, y en días en los que se supo que el informático de Google Geoffrey Hinton, que realizó importantes contribuciones al desarrollo de la inteligencia artificial, abandonó el gigante tecnológico para advertir al mundo del “riesgo existencial” que suponen los sistemas de IA para los humanos.
Pero, ¿es posible usar al ChatGPT como una especie de roboterapeuta?
El médico psiquiatra Ricardo Corral (MN 67.653) es el presidente de la Asociación Argentina de Psiquiatras (AAP) y jefe del Departamento de Docencia e Investigación del Hospital Borda, y consultado por Infobae consideró que “esto es algo muy nuevo y está en desarrollo, y va a ir claramente mejorando sustancialmente su eficacia y su precisión”.
“Si pensamos en todo lo que sucedió desde que comenzamos a usar Internet, pasando por, por ejemplo, el surgimiento de las redes sociales y cómo fue evolucionando, hasta que una máquina le ganó una partida de ajedrez a un campeón del mundo en la disciplina, entendemos que llegamos a un punto de aceleración del desarrollo superior al que hubiéramos imaginado”, analizó el especialista, quien con respecto particularmente a lo que tiene que ver con la elección de este tipo de herramientas como elección terapéutica, opinó agregó: “Es cierto que casos como el del citado artículo están sucediendo, pero hay un aspecto que tiene que ver con el contacto humano que no es menor en un proceso de este tipo”.
“Hoy en día sucede que muchas personas a partir de la pandemia y la cuarentena empezaron a hacer consultas por telemedicina a través de llamadas virtuales y muchos terapeutas, psiquiatras o psicólogos continuaron con esa forma de trabajo -analizó Corral-. Sin embargo, muchas personas no se sienten a gusto. Hay algo que llamamos relación médico-paciente o relación terapéutica o alianza terapéutica con la persona, que no es sencillo de reemplazar. Es decir, con todo esto quiero decir que claramente hay un aspecto muy importante que tiene que ver con el vínculo humano y la relación en sí, lo que llamamos cuestión empática, vínculo empático con el otro”.
Con él coincidió el doctor en Psicología, docente, tallerista y autor Flavio Calvo (MN 66.869), quien destacó que “existen dos tipos de empatía: la empatía emocional y la empatía cognitiva”. La empatía cognitiva comprende los mecanismos por los cuales una emoción puede funcionar, mientras que la empatía emocional, además, comparte la emoción con el otro”, explicó al tiempo que ejemplificó que esta última es la que se da cuando alguien “llora con quien llora, duela el duelo de otro, etc”.
En ese sentido, para él, “la inteligencia artificial puede comprender, tal vez, algunos mecanismos, pero nunca va a vivir las emociones como un ser humano. No va a poder ‘ponerse en los zapatos del otro’, cosa que termina siendo fundamental para una buena terapia”. Y agregó: “Si no hay un alma humana tocando otra alma humana, no es terapia, se resume a una serie de consejos y probabilidades sin corazón”.
“La inteligencia artificial puede ser práctica, dar respuestas rápidas, hasta tal vez, y pongo entre comillas el tal vez, guarde los secretos -ahondó Calvo-. Pero no cumple la función de acompañar empáticamente y ayudar a la persona a desarrollar su propias herramientas para el cambio, cuando simplemente te dice un qué hacer sin desarrollo de la capacidad crítica de la persona”.
“Y más allá de la terapia específica, del tratamiento específico, ya sea biológico, por ejemplo con un fármaco o psicoterapéutico, el vínculo empático es algo que ayuda a mejorar los síntomas y ayuda a mejorar el estado de la persona”, agregó Corral, para quien, si de buscarle un aspecto positivo al avance de la IA en esta esfera de la vida se trata, pensó: “Es algo que potencialmente podría usarse y resolver un tema crítico, y es que la sociedad y la comunidad no tienen en este momento respuesta para los problemas de salud mental, por lo que muchas de las cuestiones de desarrollo relacionadas con inteligencia artificial pueden ser una gran ayuda para las personas que sufren, que no tienen posibilidad de acceso a alguna persona física, a un médico, un terapeuta, un psicólogo, un psiquiatra”.
“Eso si se quiere mirar la parte positiva. Aunque obviamente, todas las alertas están; porque potencialmente puede ser muy peligroso”, destacó.
Los posibles riesgos
Los poderosos chatbots de uso general, incluidos ChatGPT, Bard de Google y Bing Chat con tecnología OpenAI de Microsoft Corp., se basan en modelos de lenguaje grandes, una tecnología con una tendencia bien documentada de simplemente fabricar información que suena convincente. Sin embargo, no están diseñados para la terapia y no han sido programados para cumplir con las pautas éticas y legales que observan los terapeutas humanos. En su forma actual, tampoco tienen forma de realizar un seguimiento de lo que los usuarios les dicen de una sesión a otra, una deficiencia que la mayoría de los pacientes probablemente no tolerarían de sus terapeutas humanos.
“Si alguien tiene una enfermedad mental grave, esto no está listo para reemplazar a un profesional de la salud mental”, observó Stephen Ilardi, psicólogo clínico y profesor de la Universidad de Kansas que estudia los trastornos del estado de ánimo. “El riesgo es demasiado alto”, opinó, al tiempo que describió al ChatGPT como “un truco de salón”. Aún así, él piensa que es un compañero de conversación lo suficientemente bueno como para que muchas personas puedan encontrarlo útil.
Van Slyck, que concurrió a terapia en persona durante años, dice que no planea dejar de ver a su terapeuta humana y que la consultaría sobre cualquier decisión que ChatGPT le señale antes de actuar en consecuencia. “Hasta ahora, para mí, lo que me ha sugerido me ha parecido una retroalimentación muy razonable y muy perspicaz”, dijo.
Ilardi advirtió que con las medidas de seguridad adecuadas puede imaginar que ChatGPT se adapte para complementar la atención profesional en un momento en que la demanda de servicios de salud mental supera la oferta.
Para Margaret Mitchell, científica ética en jefe de Hugging Face, una empresa que fabrica y respalda modelos de IA, estos chatbots podrían usarse para ayudar a las personas que trabajan en las líneas de ayuda para crisis a aumentar la cantidad de llamadas que pueden responder.
Pero sin embargo se mostró preocupada por el hecho de que las personas que buscan terapia con chatbots puedan agravar su sufrimiento sin darse cuenta en el momento de lo que están haciendo. “Incluso si alguien encuentra útil la tecnología, eso no significa que los esté llevando en una buena dirección”, señaló.
Por otro lado, Mitchell planteó implicaciones de privacidad potencialmente preocupantes. Explicó que OpenAI revisa las conversaciones de los usuarios y las utiliza para la capacitación, lo que puede no resultar atractivo para las personas que desean hablar sobre temas extremadamente personales. “Los usuarios pueden eliminar sus cuentas , aunque el proceso puede demorar hasta cuatro semanas -sostuvo-. En marzo, un problema técnico llevó a OpenAI a cerrar brevemente ChatGPT después de recibir informes de que algunos usuarios podían ver los títulos de los historiales de chat de otros usuarios”.
Seguir leyendo
No hay comentarios:
Publicar un comentario