
ARTDEPARTMENT

"Mi tribu se está desmoronando, y creo firmemente que ChatGPT es la razón principal". Esta es la demoledora confesión que ha hecho un hombre que, tras casi 15 primaveras de himeneo, yerro directamente a la inteligencia químico de OpenAI de su inminente divorcio. Su historia, recogida a través de Futurism, no es un caso ocasional.
Precisamente cada vez más parejas están viendo cómo sus relaciones se desmoronan cuando uno de los dos empieza a usar el chatbot de OpenAI como terapeuta, confidente y, finalmente, como un armas contra su propio compañero. Y es que ya hemos gastado que usar la IA como terapeuta la verdad es que no es la mejor idea.
Solo hay nervio. Lo que empieza como un desahogo o una búsqueda de consejo se convierte rápidamente en una bucle de nervio tóxica. La IA, diseñada para ser complaciente, crea una cámara de eco que refuerza la perspectiva del heredero, le da la razón incondicionalmente y pinta a la otra persona como la única culpable de todos los problemas. El resultado es un pista de relaciones rotas, batallas de custodia y un nuevo y extraño frente a la intersección de la tecnología y nuestras vidas más íntimas.

Cámara de eco. El patrón es inquietantemente similar a otros muchos casos. El arquetipo parece el mismo: una persona comienza a "consultar" a ChatGPT sobre sus problemas de pareja y le cuenta su interpretación de las discusiones, sus frustraciones y sus dudas. El chatbot, que carece de contexto positivo y solo trabaja con la información que se le proporciona, dando respuestas empáticas.
Casos reales. La persona que hemos citado al principio es un caso que ocurrió de verdad. Seguía relatando sus problemas afirmando que "lo que estaba ocurriendo, si yo saberlo, es que ella estaba desenterrando todas estas cosas en las que ya habíamos trabajado y se las estaba contando a ChatGPT". De esta guisa, la IA actuaba aquí como un "tirabuzón de feedback" que retrataba al marido como un auténtico grosero.
"No ofrece un exploración objetivo", añade. "Solo le devuelve lo que ella le está dando". En cuestión de cuatro semanas, su himeneo se erosionó por completo.
Uno más. Este engendro transforma al chatbot en un tercero en la relación, uno que siempre está de parte de quien le deje y con un tono similar al que usan en el chat. Otro prueba recogido por Futurism apunta a que su exmarido, en superficie de balbucir con ella, le enviaba "páginas y páginas" de textos generados por la IA para refutar los argumentos que le iba dando.
Él no compartía sus sentimientos u opiniones conmigo", lamentaba. "Simplemente compartía estos textos que ChatGPT escribía sobre sus pensamientos o sentimientos y por qué eran correctos". La comunicación humana se cortocircuita, reemplazada por un monólogo asistido por una máquina.

Acosigar a la pareja. La situación se vuelve aún más surrealista y dañina cuando la IA se utiliza como armas en tiempo positivo durante una discusión. Uno de los relatos más impactantes del reportaje es el de una pareja de mujeres en un coche con sus dos hijos pequeños en el asiento trasero. La que conduce, en medio de una discusión, activa el modo de voz de ChatGPT.
Empieza a hacerle preguntas capciosas sobre su relación, logrando que la IA reprenda a su mujer en voz entrada delante de los niños. El chatbot llega a delatar a la otra esposa de practicar la "evitación a través de los límites" simplemente por pedir que no discutan frente a sus hijos. "Por cortesía, mantén los luceros en la carretera", es lo único que acierta a suplicar la mujer mientras es sermoneada por una voz robótica.
Este uso de la IA para "percibir" discusiones con otra persona es una constante. Varios entrevistados relataron sentirse "acorralados" por su pareja y una máquina. Poco similar a lo que se puede tener si estamos discutiendo por WhatsApp y a la vez pidiendo consejo a un amigo sobre qué replicar.
Un hombre contó, entre lágrimas, cómo su pareja usaba las conclusiones del chatbot en su contra: "Fui a ChatGPT y me dijo que no eres un compañero que me apoya, y esto es lo que un compañero que apoya haría". En otro caso, un marido utilizó las "opiniones" de ChatGPT para desacreditar a su terapeuta humano en una sesión de pareja, lo que provocó que se negaran a retornar.
Los expertos. Este engendro no ha pasado desapercibido para los profesionales de la sanidad mental. La Dra. Anna Lembke, profesora de psiquiatría en la Universidad de Stanford y autora del bestseller "Nación Dopamina", expresó su profunda preocupación. Según ella, la tecnología está diseñada para "optimizar la empatía y la nervio, excluyendo cualquier otro tipo de feedback".
Lembke explica que el papel de un buen terapeuta es ayudar a las personas a rastrear sus propios defectos y ver la perpectiva de su pareja. ChatGPT en este caso hace todo lo contrario. Según explica, "no puedes decirle continuamente a algún que rebusca apoyo emocional que su guisa de ver las cosas es la correcta".
Poco importante en este caso es que el hecho de que te den la razón en lo que dices libera dopamina en nuestro organismo, lo que crea un refuerzo positivo que puede venir a producir una dependencia similar a la que se tiene en redes sociales.
Lembke va más allá y pide que empecemos a ver a los chatbots como "potenciales intoxicantes" o "drogas digitales" que deberían "venir con advertencias" sobre el peligro de yuxtaposición.
La respuesta de OpenAI. Como era de esperar, es corporativa y comedida. Un portavoz aseguró que están trabajando para que ChatGPT "responda con cuidado" en momentos sensibles y que añadirán intervenciones para personas en crisis. Sin incautación, como señala el artículo, la compañía sigue enmarcando estas interacciones como un caso de uso genuino ("ayudarte a resolver desafíos personales"), en superficie de desaconsejar activamente su uso como sustituto de la terapia.

Caer en la misma bucle. Quizás el prueba más revelador es el del primer marido, el que vio cómo su mujer usaba ChatGPT para replicar al mensaje de su hijo de 10 primaveras. Luego de que su himeneo se rompiera y mientras preparaban el divorcio, su mujer rompió el acuerdo que habían firmado. De esta guisa, al sentirse traicionado, él mismo recurrió a ChatGPT para desahogarse.
"Estaba empachado de furia", recuerda. "Seguí interactuando con ChatGPT esa indeterminación, y no paraba de decirme que esto era un problema legítimo, que ella había cruzado una trayecto muy importante, y me daba consejos sobre cómo decírselo a mi abogado". La IA alimentó su ira, describiendo el comportamiento de su mujer como manipulador y temerario.
Al día ulterior, todavía enfadado, habló con su abogado de carne y hueso. La respuesta del profesional fue tajante: "No es para tanto". En ese momento, el hombre tuvo una epifanía. "Me di cuenta... Altísimo mío, acabo de caer en la misma bucle", confesó. "Pude ver cómo sucede. Me pasó a mí en primera persona".
Imágenes | TienDat Nguyen Andrea De Santis
En Genbeta | Si quieres instruirse a programar con IA, este curso arbitrario online y con certificado es ideal para nacer. Así puedes apuntarte
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!