ARTDEPARTMENT

Solicitar una consulta

Sam Altman avisa de que todo lo que le cuentes sobre tu vida podría ser usado en tu contra

Publicado el 
julio 30, 2025

 

Ahora que la IA empieza a coger un papel cada vez decano en la toma de decisiones, personales y empresariales, de muchos usuarios, la advertencia que acaba de divulgar Sam Altman (recordemos, CEO de OpenAI, su empresa desarrolladora) no puede ni debe pasarse por parada: todo lo que le cuentes a ChatGPT podría terminar en un auditoría.

En otras palabras, ChatGPT no cuenta con cero remotamente equivalente al "secreto de confesión", y lo que compartes con esta tecnología —por más íntimo que sea— no está protegido legalmente, y eso puede tener consecuencias muy negativas para el favorecido demasiado confiado.

Cómo mejorar la SEGURIDAD EN INTERNET: VPN, DNS y páginas con HTTPS

La trampa del aparente terapeuta

Muchos usuarios, en peculiar jóvenes, han comenzado a utilizar ChatGPT como sustituto de un terapeuta, un confesor (en el sentido más amplio del término), o de un asesor constitucional/fiscal/etc. Es factible entender por qué: respuestas inmediatas, anonimato, cero inteligencia y sin coste.

Pero este uso emocionalmente intenso choca de frente con una cruda sinceridad: la IA no está legalmente obligada a proteger tu privacidad como lo haría un psicólogo, un médico o un abogado. ChatGPT es una utensilio tecnológica sin protección constitucional específica. "No hemos resuelto eso aún para las conversaciones con IA", lamenta Altman.

De hecho, hasta que no se legisle una privacidad existente en las interacciones con la IA, lo más prudente es considerar cualquier conversación con ChatGPT como pública y susceptible de ser usada en tu contra.

Según ha patente el propio Altman en el pódcast This Past Weekend,

"Las personas hablan sobre las cosas más personales de sus vidas con ChatGPT [...] Lo usan como terapeuta, como coach de vida, preguntando '¿qué debo hacer con mis problemas de pareja?' [...] Pero si luego tiene punto una demanda, podríamos estar obligados a entregar esas conversaciones".

Ahora ChatGPT puede acceder a tus documentos de Drive o Dropbox. Es muy útil, pero hay cuestiones de privacidad que inquietan

OpenAI reconoce en su política de privacidad que retiene los datos de los usuarios, incluidas las conversaciones, para cumplir con obligaciones legales. Es opinar, cualquier autoridad sumarial puede exigir la recuperación y entrega de nuestras conversaciones con ChatGPT...

¿Le pediste a ChatGPT ideas para defraudar a Hacienda? ¿Le describiste una pelea con detalles que podrían incriminarte? Todo eso puede estar de moda en tu contra.

La ilusión del anonimato y el peligro constitucional

La ilusión de estar hablando con una máquina "indeterminado" y "segura" es uno de los errores más comunes. En sinceridad, los sistemas de IA son operados por empresas sujetas a leyes, demandas, políticas de uso y requerimientos judiciales. En el caso de OpenAI, una demanda en curso con el New York Times ha hecho que la empresa esté obligada a retener chats, incluso los supuestamente eliminados, por orden de la enjuiciador del caso.

Como explica el investigador William Agnew, "aunque las compañías intenten ser cuidadosas con los datos, los modelos de IA son conocidos por regurgitar información". Una conversación tuya podría "resurgir" en otro contexto, sin que tú lo sepas.

Cualquier plataforma o dispositivo está obligado a 'comparecer'

El caso de Amazon Echo en EE.UU. ya abrió este camino. En 2017, un dispositivo se convirtió en "testigo" en un juicio por asesinato. Tras la presión sumarial, Amazon tuvo que entregar grabaciones de audio de lo que ocurrió en una casa donde se cometió un crimen. Aunque no se trataba de una IA como ChatGPT, sentó precedente: los dispositivos inteligentes pueden convertirse en fuentes de evidencia.

Dependencia emocional y consecuencias legales

Aún más preocupante es la creciente dependencia emocional de la que Altman incluso ha alertado. "Hay masa muchacha que reconoce que no es capaz de tomar decisiones por sí misma sin contárselo antiguamente a ChatGPT", señaló en otra entrevista. El problema ya no es solo la privacidad, sino la pérdida de autonomía en la toma de decisiones personales.

Imagen | Marcos Merino mediante IA
En Genbeta | Estos son todos los datos que recopila ChatGPT cada vez que lo usamos: sabe más de nosotros de lo que pensamos

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram