Ciencia y SaludTecnologia

Venga a terapia con el Dr. ChatGPT

Ahora, ChatGPT está ofreciendo terapia psicológica, ¿será que la revolución sobre la salud mental puede ser la próxima?

Al escribir «Tengo ansiedad» en ChatGPT, el innovador chatbot impulsado por inteligencia artificial de OpenAI se pone a trabajar casi de inmediato. Ofrece terapia con un: «Lamento escuchar que estás experimentando ansiedad», garabatea en la pantalla. «Puede ser una experiencia desafiante, pero hay estrategias que puede intentar para ayudar a controlar sus síntomas».

Luego viene una lista numerada de recomendaciones para afirmar la terapia. Trabajar en la relajación, concentrarse en el sueño, reducir la cafeína y el alcohol, desafiar los pensamientos negativos y buscar el apoyo de amigos y familiares.

Si bien no es el consejo más original, se parece a lo que se puede escuchar en el consultorio de un terapeuta o leer en línea sobre la ansiedad. ChatGPT extrae sus respuestas para la terapia, de la amplia extensión de Internet.

ChatGPT advierte que no es un reemplazo para un psicólogo o consejero. Pero eso no impide que algunas personas usen la plataforma como su terapeuta personal. En publicaciones en foros en línea como Reddit, los usuarios describen sus experiencias haciendo terapia con ChatGPT, sobre problemas personales y eventos difíciles de la vida como rupturas.

Terapia artificial con ChatGPT.
La psicología no ha sido la excepción, y es así como hoy se establece un nuevo paradigma de aproximación a la mente humana.

Muchos informan que su experiencia con el chatbot es tan buena o mejor que la terapia tradicional y más barata

La sorprendente capacidad de ChatGPT para imitar la conversación humana plantea preguntas sobre el potencial de la IA generativa. Incluso, en el tratamiento de afecciones de salud mental, especialmente en regiones del mundo, como Asia. Allí, los servicios de salud mental están envueltos en el estigma.

Algunos entusiastas de la IA consideran que los chatbots tienen el mayor potencial en el tratamiento de afecciones más leves y comunes. Se refieren a la ansiedad y la depresión cuya terapia estándar, implica que un terapeuta escuche y valide a un paciente. Así como que ofrezca pasos prácticos para abordar sus problemas.

En teoría, la terapia de IA podría ofrecer un acceso más rápido y más barato al apoyo que los servicios tradicionales de salud mental. Que, sufren escasez de personal, largas listas de espera y altos costos. Y permitir a los pacientes eludir los sentimientos de juicio y vergüenza, especialmente en partes del mundo donde la enfermedad mental sigue siendo tabú.

«La psicoterapia es muy cara, las listas de espera son realmente largas», indicó Ashley Andreou, estudiante de medicina centrada en psiquiatría en la Universidad de Georgetown. «Las personas no tienen acceso a algo que aumente la medicación y sea un tratamiento basado en la evidencia para problemas de salud mental. Por lo que creo que debemos aumentar el acceso, y creo que la IA generativa con un profesional de la salud certificado aumentará la eficiencia».

La perspectiva de que la IA aumente, o incluso lidere, el tratamiento de salud mental plantea una miríada de preocupaciones éticas y prácticas. Estos van desde cómo proteger la información personal y los registros médicos. Incluso, preguntas sobre si un programa informático alguna vez será realmente capaz de empatizar con un paciente. O reconocer señales de advertencia como el riesgo de autolesión.

Si bien la tecnología detrás de ChatGPT aún está en su infancia, la plataforma y sus rivales de chatbot luchan por igualar a los humanos en ciertas áreas. Como reconocer preguntas repetidas, y pueden producir respuestas impredecibles, inexactas o perturbadoras en respuesta a ciertas indicaciones.

Hasta ahora, el uso de la IA en aplicaciones dedicadas a la salud mental se ha limitado a sistemas «basados en reglas» en aplicaciones de bienestar como Wysa, hey y Woebot. Estas aplicaciones imitan aspectos del proceso de terapia, utilizan un número determinado de combinaciones de preguntas y respuestas que fueron elegidas por un humano.

ChatGPT y otras plataformas basadas en IA generativa, produce respuestas originales que pueden ser prácticamente indistinguibles del habla humana. La IA generativa todavía se considera demasiado una «caja negra», es decir, tan compleja que sus procesos de toma de decisiones no son completamente entendidos por los humanos. Para usarla en un entorno de salud mental, señaló Ramakant Vempati, fundador de Wysa, con sede en India.

«Obviamente hay mucha literatura sobre cómo el chat de IA está en auge con el lanzamiento de ChatGPT, etc. Pero, creo que es importante resaltar que Wysa es muy específico del dominio y está construido con mucho cuidado teniendo en cuenta las barreras de seguridad clínicas». Indicó Vempati.

«Y no usamos texto generativo, no usamos modelos generativos. Este es un diálogo construido, por lo que el guion está prescrito. Además de validado a través de un conjunto de datos de seguridad críticos, que hemos probado para las respuestas de los usuarios».

Si bien estas aplicaciones basadas en reglas están limitadas en sus funciones, la industria de la IA sigue sin estar regulada en gran medida. A pesar de las preocupaciones de que el campo que avanza rápidamente podría plantear graves riesgos para el bienestar humano.

Fuente
InfoBaeXataka

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Translate »
error: