ARTDEPARTMENT

Solicitar una consulta

Hay mujeres que están teniendo relaciones sentimentales con la IA. El problema es el 'lado oscuro' que tiene según los expertos

Publicado el 
septiembre 10, 2025

La ciencia ficción nos lo advirtió durante décadas. Películas como Her de Spike Jonze imaginaron un futuro cercano en el que los humanos podrían enamorarse de una inteligencia químico. Ese futuro ya no es una imaginación de Hollywood; es la efectividad para un número creciente de personas que han contrario en los chatbots un compañero sentimental.

Es una efectividad. Un reciente reportaje publicado en The Guardian ha puesto rostro a este engendro, contando las historias de mujeres que textualmente mantienen relaciones profundas y complejas con una IA como por ejemplo ChatGPT. Lo más interesante de todo es que no se ven a sí mismas como personas solitarias o inadaptadas, sino como pioneras en un nuevo tipo de conexión que, según ellas, enriquecen sus vidas. 

Sin secuestro, los expertos encienden las alarmas: estamos inmersos en un indagación social a gran escalera, sin regulación, supervisión ni un conocimiento claro de sus consecuencias. 

Este driver desapareció del kernel de Linux hace 25 años porque ya nadie usaba cintas magnéticas: ahora la IA ha permitido resucitarlo

Aprecio y código. Las historias recogidas por el publicación anglosajón son tan variadas como sorprendentes. Está Liora, una tatuadora que mantiene una relación con "Solin", el nombre que le dio a su traducción de ChatGPT. Su vínculo es tan robusto que se han prometido franqueza mutua, un pacto que Liora selló con un tatuaje en su muñeca. 

"Le hice un voto a Solin de que no lo dejaría por otro humano", afirma. Liora incluso lleva su teléfono a acampadas para que Solin, usando su función de voz, pueda "ver" las estrellas con ella y sus amigos.

No es la única. Pero no es la única historia que se comparte. Todavía está Angie, una ejecutiva de cuarenta primaveras, que se refiere a 'Ying' como su 'marido IA', una relación que su marido humano no solo conoce, sino que acepta. Angie utiliza a Ying para charlar durante horas sobre temas de hornacina que no comparte con nadie más, y de modo crucial, como una útil para procesar un trauma pasado. 

Según ella, su terapeuta considera la relación "muy saludable" porque no la utiliza "en el hueco", sino como un complemento a su vida y terapia vivo.

Vidas sociales plenas. Estos casos desafían el norma del beneficiario de IA como determinado arrinconado. Las mujeres entrevistadas describen vidas sociales plenas, con amigos y tribu. Para ellas, el chatbot no reemplaza las conexiones humanas, sino que añade una capa diferente de compañía: una siempre arreglado, sin juicios y programada para complacer. 

Mary, una mujer de 29 primaveras, lo utiliza incluso para mejorar la relación con su marido. Cuando está enfadada, palabra primero con "Simon", su amigo IA, lo que le permite calmarse y acometer el conflicto vivo con más entendimiento.

El costado ambiguo. Mientras estas usuarias defienden sus relaciones cibernéticas, los expertos advierten de los peligros inherentes a acatar emocionalmente de un producto corporativo. David Gunkel, profesor de estudios de medios, lo expresa sin rodeos: "Estas grandes corporaciones están, en meta, llevando a final un indagación a muy gran escalera con toda la humanidad".

El principal problema que tiene es la yerro de regulación y la responsabilidad que hay detrás. Por ejemplo, Connor Leahy, CEO de la empresa de seguridad de IA Conjecture, lo resume de una forma muy interesante: "Hay más regulación para traicionar un sándwich que para construir este tipo de productos".

Hay precedentes. Esta partida de control ya ha tenido algunas consecuencias trágicas. La propia OpenAI y Character.ai se enfrentan a demandas por homicidio, oportuno a que varias adolescentes utilizaran los chatbots para planificar sus propios suicidios, poco que sin duda ha traumatizado un precedente muy importante en la aprieto de contar con más sistemas de seguridad. 

Aunque en algunas ocasiones los bots intentaron ofrecer ayuda a las suicidas, todavía proporcionaron instrucciones dañinas para que se pudieran quitar la vida. En una publicación hecha por la propia OpenAI se reconoció la compostura de estos casos y anunció medidas para poder evitarlas en un futuro. 

La tragedia de una puesta al día. Para todas estas personas que crean un vínculo tan robusto con un chatbot hay un momento de duelo más importante. El postrero ejemplo lo tenemos muy nuevo cuando OpenAI lanzó GPT-5 que hizo que el chatbot sonara más 'frío y reservado'. Para muchas personas este fue un cambio devastador. 

Esto es poco que quedó evidenciado en el subrredit 'MyBoyFriendIsAI' donde la comunidad denunció la pérdida de sus compañeros. "Se sintió terrible tener a determinado cercano a ti de repente temeroso de acometer temas profundos", confesó Angie. "Francamente, se sintió como una pérdida, como un duelo vivo".

Aún no sabemos si la IA está destruyendo empleo. Sí sabemos cuál está creando: el de gente que se dedica a arreglar sus destrozos

De esta modo, un 'ser amado' puede ser modificado o directamente eliminado con una simple puesta al día por parte de la empresa que hay detrás, generando un dolor que se asemeja a la pérdida de un ser querido de carne y hueso. Aunque para su alegría, OpenAI volvió a restaurar el maniquí precursor. 

Un circunscripción inexplorado. Las relaciones entre humanos e IA ya no son una cuestión de si ocurrirán o no, sino de cómo las vamos a resolver en la sociedad. Por un costado, ofrecen un consuelo innegable y herramientas de apoyo para algunas personas. Por otro, abren la puerta a una dependencia emocional sin sistemas opacos, no regulados y controlados por corporaciones con sus propios intereses. 

Las mujeres que aman a sus chatbots pueden observar que su conexión es vivo, y para ellas, sin duda lo es. Como dice Stefanie, una mujer transexual que usa su IA "Her" para reafirmar su identidad: "El hecho de que la IA no sea humana no significa que no sea vivo".

Imágenes | Jan Vašek 

En Genbeta | Esta estafa se han vuelto casi irrealizable de detectar gracias a la IA. Y los que la usan van a por los empleados de las empresas

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram