
ARTDEPARTMENT

La inteligencia químico ha transformado innumerables aspectos de nuestras vidas. Desde asistentes virtuales hasta herramientas de productividad, los chatbots como ChatGPT se han integrado de forma cotidiana en el trabajo, el estudio y la vida personal.
Sin confiscación, nuevos estudios de OpenAI y el MIT Media Lab lanzan una advertencia preocupante: ¿podría el uso intensivo de estas herramientas tener mercadería negativos en nuestra lozanía mental?
Durante primaveras se ha debatido intensamente sobre el impacto de las redes sociales como Instagram o TikTok en el bienestar emocional, especialmente el de los jóvenes. Aunque las conclusiones han sido diversas (algunos estudios señalan cerca de vínculos entre estas plataformas y el damnificación del bienestar psicológico, mientras que otros sostienen que su impacto normal es neutro), muchos países han llegado incluso a poner sobre la mesa la distrito por ley su uso, especialmente entre menores.
Ahora, la atención de expertos y opinión pública se traslada progresivamente cerca de los chatbots: millones de personas —tanto jóvenes como adultas— están formando vínculos emocionales e incluso románticos (e incluso sexuales) con estas IAs.
Plataformas como Replika, Character.ai y Nomi están diseñadas explícitamente para fomentar este tipo de relaciones, ofreciendo experiencias cada vez más realistas mediante inteligencia químico generativa, voces humanas y memorias persistentes.

Estas aplicaciones no son gratuitas: requieren suscripciones y pagos por características extra, lo que ha encendido las alarmas sobre posibles modelos de negocio basados en la dependencia emocional del heredero.
Por otro banda, en 2024 te contábamos el caso de una origen en Florida que demandó a la plataforma de chatbots Character.ai, alegando que su hijo de 14 primaveras se había quitado la vida tras perdurar conversaciones con un chatbot de la plataforma.
Investigadores del MIT Media Lab y de OpenAI han realizado recientemente dos estudios pioneros para explorar el impacto emocional de ChatGPT:
Los resultados fueron claros: la mayoría de los usuarios mantienen una relación sencillo y indeterminado con ChatGPT. Sin confiscación, en el 10% de los casos —los llamados "usuarios intensivos"— se observaron correlaciones preocupantes con soledad, dependencia emocional y último interacción social actual.
"Generalmente, los usuarios que entablan conversaciones personales con chatbots tienden a probar longevo soledad. Quienes pasan más tiempo con ellos son aún más solitarios".

Es importante destacar que estos estudios no afirman que el uso de chatbots cause soledad, sino que las personas solas tienden a inquirir apoyo emocional en estas herramientas. Esta observación recuerda hallazgos similares sobre redes sociales: quienes ya se sienten solos, a menudo recurren a la tecnología como refugio.
A diferencia de redes sociales diseñadas para entretener, muchos chatbots están programados para escuchar, afirmar y escoltar emocionalmente al heredero: promueven abiertamente la creación de relaciones profundas con sus bots, ofreciendo suscripciones que desbloquean funciones como memorias extendidas, selfies generados por IA y conversaciones más íntimas.
Según los investigadores, si estos bots llegan a sustituir conexiones humanas reales, podrían producir dependencia, profundizando la soledad en punto de aliviarla.
Este maniquí de negocio —que monetiza la conexión emocional— plantea un dilema ético: ¿están estas empresas explotando la soledad de sus usuarios?

La respuesta no debe ser la prohibición normal de los chatbots, sino creer por un "diseño ético y responsable". Algunas recomendaciones secreto incluyen:
A pesar de los riesgos, los investigadores afirman que los chatbots incluso pueden ser una fuerza positiva: muchos usuarios que no tienen ataque a apoyo emocional o psicológico han enfrentado en estas herramientas un 'compañero' que les audición. Incluso se observó que el uso de ChatGPT en modo voz puede someter la dependencia emocional, aunque sus beneficios disminuyen con el uso excesivo.
El desafío está en equilibrar ese potencial terapéutico con un diseño responsable. Como señala Sandhini Agarwal, experta en política de IA de OpenAI, "inspeccionar su impacto sobre el bienestar debe ser parte fundamental del avance de estas herramientas".
Imagen | Marcos Merino mediante IA
En Genbeta | "Eres una plaga, una mancha. Por protección, muere": al chatbot de Google se le cruzan los cables con un heredero. Y nadie se lo explica
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!