
ARTDEPARTMENT

A principios de este mes, una orden (PDF) firmada por una enjuiciador de Nueva York obligó a OpenAI a aparecer a conservar todos los registros de chat de ChatGPT, incluso los borrados y los (supuestamente) anónimos. Esto, claro, ha generado una tormenta lícito, técnica y ética: mientras la neutralidad defiende su función como una medida en serie adentro de un altercado civil, usuarios y defensores de la privacidad lo ven como la antesala de un régimen de vigilancia digital sin precedentes.
Cómo mejorar la SEGURIDAD EN INTERNET: VPN, DNS y páginas con HTTPS
Todo comienza con una demanda presentada por The New York Times contra OpenAI por supuestas infracciones de derechos de autor. Los demandantes argumentan que algunos usuarios podrían estar utilizando ChatGPT para evitar el sistema de plazo del publicación y gestar contenido basado en sus artículos.
En presencia de la imposibilidad de conseguir a los chats eliminados por defecto por OpenAI, el tribunal ordenó a la empresa conservar indefinidamente todos los registros de conversaciones, incluso los que ya habían sido borrados por los usuarios.
Dos usuarios intentaron intervenir en el proceso legislativo, alarmados por lo que consideran una incumplimiento de sus derechos fundamentales. Uno de ellos, Aidan Hunt, alegó que la orden legislativo daba espacio a una "iniciativa de vigilancia masiva a nivel doméstico", sin consentimiento ni notificación previa a los usuarios.
Argumentó que sus derechos constitucionales, especialmente los amparados por la Cuarta Mejora de la Constitución estadounidense y el adecuado proceso, estaban siendo pisoteados. Adicionalmente, criticó que ni siquiera se contemplaran excepciones para chats anónimos o con contenido enormemente sensible —como información médica, lícito o financiera— que nadie tendrían que ver con las acusaciones del NYT.
La jueza magistrada Ona Wang rechazó ambas peticiones. Consideró que la orden no implica vigilancia estatal ni representa una intromisión generalizada. En palabras de Wang, "un mandato de conservación de documentos emitido por un tribunal para un propósito lícito restringido no puede considerarse un software de vigilancia masiva". Subrayó por otra parte que la información retenida está sujeta a 'lícito hold': será almacenada en un sistema seguro, no será compartida automáticamente y solo podrá ser accedida por un equipo lícito y de seguridad interno de OpenAI.
OpenAI ha mostrado su rechazo a la orden y ha elevado el caso al tribunal de distrito. En su defensa pública, la compañía asegura estar comprometida con la privacidad de sus usuarios y tilda el requerimiento legislativo como un 'exceso' por parte del NYT. Aclara asimismo que, al menos, los clientes empresariales de su API bajo acuerdos de "retención cero de datos" no se verán afectados.
Aun así, usuarios como Hunt dudan de cuán remotamente llegará OpenAI en su defensa, temiendo que intereses como el costo financiero del altercado, la reputación corporativa o la ligereza del proceso pesen más que la privacidad del beneficiario medio.
Para expertos como Corynne McSherry, directora lícito de Electronic Frontier Foundation, el problema va más allá de este caso. Advirtió que órdenes como esta pueden sentar precedentes preocupantes y rajar la puerta a que agencias de seguridad o actores privados reclamen historiales de chat por cualquier motivo, como ya ocurre con redes sociales o motores de búsqueda.
Adicionalmente, destacó la privación de que todas las plataformas de IA aseguren mecanismos efectivos para eliminar conversaciones y informar a los usuarios cuando sus datos están sujetos a procesos legales. Sin transparencia, dijo, se corre el aventura de despellejar la confianza en estas tecnologías emergentes.
¿Qué pueden hacer los usuarios? Por el momento, los usuarios afectados no pueden intervenir directamente. Sin secuestro, si los registros son finalmente compartidos con los demandantes —poco que aún no ha ocurrido— podrían desahogarse nuevas vías de protesta.
Mientras tanto, el mejor consejo es tratar cualquier conversación con un chatbot como si pudiera alcanzar a ser pública en el futuro
Aunque la osadía legislativo se enmarca en el contexto lícito de Estados Unidos, sus repercusiones afectan a usuarios de la plataforma en cualquier espacio del mundo y, en nuestro caso, tales transferencias de datos chocan con las estrictas normativas de privacidad vigentes en la Unión Europea (UE), particularmente con el Reglamento Caudillo de Protección de Datos (RGPD). Si no se garantizan salvaguardas adecuadas, esta iniciativa de 'retención de datos' podría ser considerada ilegal por las autoridades europeas.

El RGPD establece principios fundamentales como la minimización de datos, que exige que las organizaciones solo recojan y almacenen datos personales cuando sea estrictamente necesario y durante un período restringido. La retención indefinida de chats —no digamos ya de aquellos eliminados específicamente por los usuarios— podría vulnerar este principio, sobre todo si los datos incluyen información personal identificable (PII) o sensible, como opiniones políticas, datos de vigor o contenido lícito.
Por otro costado, uno de los pilares del RGPD es el derecho al olvido, que permite a los ciudadanos solicitar la asesinato de sus datos personales cuando ya no sean necesarios o si se retiran los consentimientos. La obligación legislativo impuesta a OpenAI podría entrar en conflicto directo con este derecho, al impedir la asesinato de datos incluso cuando los usuarios así lo soliciten.
Las autoridades de protección de datos de la UE, como la CNIL (Francia) o la AEPD (España), podrían estar presionadas a llevar a cabo si se demuestra que la retención legislativo ordenada en EE. UU. afecta a ciudadanos europeos. No sería la primera vez: tanto Meta como Google han enfrentado sanciones multimillonarias por prácticas que violan el RGPD. El problema es que, en este caso, la osadía no sería imputable a OpenAI, sino a un sistema legislativo extranjero.
En el marco más extremo —y si no se llega a una decisión conforme al RGPD— OpenAI podría estar obligada a modificar radicalmente el tratamiento de datos de usuarios europeos o incluso restringir su paso a la plataforma en la UE para evitar sanciones legales. No es ninguna disparate: esto ya ocurrió en 2023, cuando el regulador italiano suspendió temporalmente el paso a ChatGPT por problemas de cumplimiento del RGPD.
Vía | Ars Technica
Imagen | Marcos Merino mediante IA
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!