ARTDEPARTMENT

Solicitar una consulta

ChatGPT no está borrando el registro de ninguno de tus chats. Es por orden de una juez, pero no está claro que sea legal

Publicado el 
junio 24, 2025

A principios de este mes, una orden (PDF) firmada por una enjuiciador de Nueva York obligó a OpenAI a aparecer a conservar todos los registros de chat de ChatGPT, incluso los borrados y los (supuestamente) anónimos. Esto, claro, ha generado una tormenta lícito, técnica y ética: mientras la neutralidad defiende su función como una medida en serie adentro de un altercado civil, usuarios y defensores de la privacidad lo ven como la antesala de un régimen de vigilancia digital sin precedentes.

Cómo mejorar la SEGURIDAD EN INTERNET: VPN, DNS y páginas con HTTPS

Todo comenzó con el copyright

Todo comienza con una demanda presentada por The New York Times contra OpenAI por supuestas infracciones de derechos de autor. Los demandantes argumentan que algunos usuarios podrían estar utilizando ChatGPT para evitar el sistema de plazo del publicación y gestar contenido basado en sus artículos.

En presencia de la imposibilidad de conseguir a los chats eliminados por defecto por OpenAI, el tribunal ordenó a la empresa conservar indefinidamente todos los registros de conversaciones, incluso los que ya habían sido borrados por los usuarios.

Los usuarios temen a una 'vigilancia masiva'

Dos usuarios intentaron intervenir en el proceso legislativo, alarmados por lo que consideran una incumplimiento de sus derechos fundamentales. Uno de ellos, Aidan Hunt, alegó que la orden legislativo daba espacio a una "iniciativa de vigilancia masiva a nivel doméstico", sin consentimiento ni notificación previa a los usuarios.

Argumentó que sus derechos constitucionales, especialmente los amparados por la Cuarta Mejora de la Constitución estadounidense y el adecuado proceso, estaban siendo pisoteados. Adicionalmente, criticó que ni siquiera se contemplaran excepciones para chats anónimos o con contenido enormemente sensible —como información médica, lícito o financiera— que nadie tendrían que ver con las acusaciones del NYT.

El tribunal sostiene que "retención no es vigilancia"

La jueza magistrada Ona Wang rechazó ambas peticiones. Consideró que la orden no implica vigilancia estatal ni representa una intromisión generalizada. En palabras de Wang, "un mandato de conservación de documentos emitido por un tribunal para un propósito lícito restringido no puede considerarse un software de vigilancia masiva". Subrayó por otra parte que la información retenida está sujeta a 'lícito hold': será almacenada en un sistema seguro, no será compartida automáticamente y solo podrá ser accedida por un equipo lícito y de seguridad interno de OpenAI.

La postura de OpenAI

OpenAI ha mostrado su rechazo a la orden y ha elevado el caso al tribunal de distrito. En su defensa pública, la compañía asegura estar comprometida con la privacidad de sus usuarios y tilda el requerimiento legislativo como un 'exceso' por parte del NYT. Aclara asimismo que, al menos, los clientes empresariales de su API bajo acuerdos de "retención cero de datos" no se verán afectados.

Aun así, usuarios como Hunt dudan de cuán remotamente llegará OpenAI en su defensa, temiendo que intereses como el costo financiero del altercado, la reputación corporativa o la ligereza del proceso pesen más que la privacidad del beneficiario medio.

Tomando nota para el futuro

Para expertos como Corynne McSherry, directora lícito de Electronic Frontier Foundation, el problema va más allá de este caso. Advirtió que órdenes como esta pueden sentar precedentes preocupantes y rajar la puerta a que agencias de seguridad o actores privados reclamen historiales de chat por cualquier motivo, como ya ocurre con redes sociales o motores de búsqueda.

Adicionalmente, destacó la privación de que todas las plataformas de IA aseguren mecanismos efectivos para eliminar conversaciones y informar a los usuarios cuando sus datos están sujetos a procesos legales. Sin transparencia, dijo, se corre el aventura de despellejar la confianza en estas tecnologías emergentes.

¿Qué pueden hacer los usuarios? Por el momento, los usuarios afectados no pueden intervenir directamente. Sin secuestro, si los registros son finalmente compartidos con los demandantes —poco que aún no ha ocurrido— podrían desahogarse nuevas vías de protesta.

Mientras tanto, el mejor consejo es tratar cualquier conversación con un chatbot como si pudiera alcanzar a ser pública en el futuro

Choque de trenes con la norma de la UE

Aunque la osadía legislativo se enmarca en el contexto lícito de Estados Unidos, sus repercusiones afectan a usuarios de la plataforma en cualquier espacio del mundo y, en nuestro caso, tales transferencias de datos chocan con las estrictas normativas de privacidad vigentes en la Unión Europea (UE), particularmente con el Reglamento Caudillo de Protección de Datos (RGPD). Si no se garantizan salvaguardas adecuadas, esta iniciativa de 'retención de datos' podría ser considerada ilegal por las autoridades europeas.

“Evita los 'dispositivos inteligentes'”: el cofundador de OpenAI ha dado sus recomendaciones para tener la máxima privacidad

¿Retención indefinida?

El RGPD establece principios fundamentales como la minimización de datos, que exige que las organizaciones solo recojan y almacenen datos personales cuando sea estrictamente necesario y durante un período restringido. La retención indefinida de chats —no digamos ya de aquellos eliminados específicamente por los usuarios— podría vulnerar este principio, sobre todo si los datos incluyen información personal identificable (PII) o sensible, como opiniones políticas, datos de vigor o contenido lícito.

El derecho al olvido, en aventura

Por otro costado, uno de los pilares del RGPD es el derecho al olvido, que permite a los ciudadanos solicitar la asesinato de sus datos personales cuando ya no sean necesarios o si se retiran los consentimientos. La obligación legislativo impuesta a OpenAI podría entrar en conflicto directo con este derecho, al impedir la asesinato de datos incluso cuando los usuarios así lo soliciten.

Posible intervención de reguladores europeos

Las autoridades de protección de datos de la UE, como la CNIL (Francia) o la AEPD (España), podrían estar presionadas a llevar a cabo si se demuestra que la retención legislativo ordenada en EE. UU. afecta a ciudadanos europeos. No sería la primera vez: tanto Meta como Google han enfrentado sanciones multimillonarias por prácticas que violan el RGPD. El problema es que, en este caso, la osadía no sería imputable a OpenAI, sino a un sistema legislativo extranjero.

¿Podría ChatGPT restringirse en Europa?

En el marco más extremo —y si no se llega a una decisión conforme al RGPD— OpenAI podría estar obligada a modificar radicalmente el tratamiento de datos de usuarios europeos o incluso restringir su paso a la plataforma en la UE para evitar sanciones legales. No es ninguna disparate: esto ya ocurrió en 2023, cuando el regulador italiano suspendió temporalmente el paso a ChatGPT por problemas de cumplimiento del RGPD.

Vía | Ars Technica

Imagen | Marcos Merino mediante IA

En Xataka | Qué es Ollama y cómo usarlo para instalar en tu ordenador modelos de inteligencia artificial como Llama, DeepSeek y más 

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram