Alejandro Urueña
Ética e Inteligencia Artificial (IA) - Founder & CEO Clever Hans Diseño de Arquitectura y Soluciones en Inteligencia Artificial. Magister en Inteligencia Artificial.

“Estos datos pertenecen a usuarios de ChatGPT de todo el mundo —familias, estudiantes, profesores, funcionarios gubernamentales, analistas financieros, programadores, abogados, médicos, terapeutas e incluso periodistas— cuyos pensamientos privados e información comercial confidencial pueden quedar ahora expuestos en este litigio.”

El 10 de noviembre de 2025, la magistrada federal Ona T. Wang de Nueva York (SDNY) ordenó a OpenAI producir 20 millones de conversaciones de ChatGPT desidentificadas dentro del MDL 1:25‑md‑03143, con plazo establecido en la misma o siete días después de completar la desidentificación; la orden se apoya en la existencia de un protective order y en medidas adicionales de privacidad. (Orden: ECF 734; perfil oficial de la jueza: SDNY). (Midpage)

Qué pidió OpenAI tras la orden. El 12 de noviembre de 2025, OpenAI presentó una solicitud de reconsideración y pidió dejar sin efecto y suspender (stay) la orden mientras se decide el pedido. La empresa afirma que los demandantes habrían reconocido que más del 99,99 % de esas conversaciones no es relevante para sus reclamos y que la producción masiva entraña riesgos de privacidad para usuarios ajenos al litigio. (Escrito de OpenAI: “Como OpenAI argumentó repetidamente ante este Tribunal, ni el sentido común ni las Reglas Federales justifican la producción forzada de un tesoro masivo de conversaciones personales irrelevantes de usuarios”).

Tragedias distópicas, el ChatGPT y su efecto en la salud mental de nuestros hijos

Por qué OpenAI dice que el precedente citado no aplica. Según la presentación de OpenAI, Concord v. Anthropic es inaplicable por dos razones: (1) allí Anthropic propuso voluntariamente un muestreo de 5 millones de pares prompt‑output estadísticos, y el tribunal discutió cómo instrumentarlo (incluido entorno seguro), no si correspondía ordenar una producción masiva; y (2) en este se exigen conversaciones completas (múltiples turnos por chat), lo que si se asume un promedio conservador de cuatro turnos implicaría hasta 80 millones de pares, con mayor exposición contextual aún desidentificando. (Argumentos y citas a Concord, en la carta de OpenAI: ECF 742).

¿Qué consideró la magistrada para mitigar la privacidad? La orden inserta en link del final de este párrafo, señala que la privacidad de los consumidores queda adecuadamente protegida por el protective order vigente en el MDL y por la desidentificación exhaustiva que OpenAI debe aplicar a los 20 millones de registros, e instruye a las partes a acordar medidas adicionales de resguardo. (Orden: ECF 734). (Midpage)

Antecedente directo: preservación de registros (mayo 2025). El 13 de mayo de 2025, la misma magistrada ordenó a OpenAI preservar y segregar todo output log data que de otro modo sería eliminado, “en esencia, los datos que OpenAI ha estado destruyendo”, incluso si debían borrarse por pedido del usuario o por leyes de privacidad, hasta nueva orden. (Orden de preservación: ECF 551 (PDF)). (Justia Law)

Los padres pueden tener mayor control: así funciona el control parental de ChatGPT

Básicamente lo que te tiene que quedar de esta situación es que tus chats con la IA no son un búnker. Mira cómo OpenAI está “peleando” para no entregar 20 millones de conversaciones en ese juicio. Aunque la justicia pida que “desidentifiquen” los datos o los miren solo en un “entorno seguro”, el riesgo de que todo quede expuesto existe y es real. La idea es: si no te bancás la posibilidad de que alguien en un juicio de grandes proporciones pueda terminar revisando tus interacciones, simplemente no pongas nada privado ahí. Ni datos de salud, ni patrimoniales, ni secretos de tu trabajo, menos sentimentales. Separá bien lo que usás para vos, de lo que usás para el trabajo.