ARTDEPARTMENT
La inteligencia sintético llega con un nuevo aberración. Y peligroso: muchos pacientes con problemas de sanidad mental recurren a la IA como ChatGPT para acoger terapia. Esto a pesar de que la mayoría no están diseñados para saludar atención clínica.
Algunos han relatado sus historias personales, como una mujer convocatoria Holly Tidwell que en un día de mucha tristeza, el aniversario de la crimen de una hija, le consultó a ChatGPT si había poco malo en ella al no poder detener de deplorar. Le preocupaba su propia reacción 20 abriles luego del fallecimiento y recibió una respuesta que le resultó empática:
“El vínculo que se estableció, incluso en esos breves momentos, es profundo y duradero”, le dijeron. “Recapacitar a tu hija y honrar tu memoria es una hermosa guisa de proseguir viva esa conexión”. Estas fueron las palabras de una inteligencia sintético convocatoria ChatOn.
Hace unos días, la mama de un pequeño de 14 abriles que se suicidó luego de desarrollar un vínculo romántico con un autómata de inteligencia sintético, demandó a la empresa que lo creó, Character.AI.
La mama alega que la relación con esta AI le causó un ofensa en su sanidad mental en lo que se cree que es uno de los primeros casos de este tipo.
El caso ha alarmado a investigadores que se preocupan por la posibilidad de que los pacientes depositen su confianza en aplicaciones que no han sido revisadas por expertos en sanidad mental y que no están diseñadas para proteger la información personal de sanidad de las personas y pueden producir comentarios sesgados.
Las organizaciones que operan chatbots de sanidad mental suman decenas de millones de usuarios en su conjunto, de acuerdo con The Washington Post, y eso no cuenta a los que usan aplicaciones como ChatGPT que no se comercializan para la sanidad mental, pero se sabe que hay personas que las usan con este fin.
En Psicholoty Today han analizado este aberración. Explican que la inteligencia sintético (IA) está marcando el aparición de una nueva era en la atención de la sanidad mental, transformando todo, desde la precisión diagnóstica hasta la prestación de intervenciones terapéuticas.
"Con la creciente demanda de atención de la sanidad mental, la IA ofrece un apoyo rentable a los profesionales y los clientes y, en algunos casos, un reemplazo de los tratamientos dirigidos por humanos".
Forbes también ha analizado estos chatbots y explica que una revisión de 2022 sobre la competencia de la IA en la terapia concluyó que, según 10 estudios, el uso de IA podría mejorar la psicoterapia y sujetar los síntomas clínicos de sanidad mental. La terapia con IA obtuvo altos índices de satisfacción, billete y retención, en prospección hechos.
Mientras tanto, un artículo de 2023 que explora la IA como útil de psicoterapia determinó que, si proporcionadamente se necesita más investigación, es probable que la IA pueda tener un impresión positivo en el aumento del llegada a la atención de sanidad mental.
Desde la asociación Saco de Psicología explican que los psicólogos y sus habilidades son irremplazables, pero la implementación reflexiva y estratégica de la IA es crucial. "En la actos psicológica, los chatbots de inteligencia sintético (IA) pueden hacer que la terapia sea más accesible y menos costosa. Las herramientas de IA igualmente pueden mejorar las intervenciones, automatizar las tareas administrativas y ayudar en la capacitación de nuevos médicos", afirman.
Imagen | Foto de Priscilla Du Preez 🇨🇦 en Unsplash
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!