| |

Tus chats con IA no son privados: el fallo que lo prueba

La reciente orden judicial que obliga a OpenAI a conservar todas las conversaciones de sus usuarios, incluso aquellas supuestamente eliminadas, marca un hito incómodo pero revelador. En el marco del litigio con el New York Times, esta decisión desnuda una realidad que muchos intuíamos: la privacidad en las plataformas de inteligencia artificial es, en el mejor de los casos, condicional. Si una orden judicial puede acceder a interacciones que los usuarios creían borradas, ¿qué significa realmente “eliminar” una conversación? La respuesta es incómoda: significa poco o nada.

Este episodio no solo expone a OpenAI, sino que generaliza la sospecha sobre un ecosistema en el que la confidencialidad se presenta como una opción, pero opera como una excepción.

Prompter-IA: ¿nuevo sujeto de confidencialidad profesional?

En respuesta al tribunal, OpenAI propuso una figura inédita: el “privilegio prompter-IA”, una suerte de confidencialidad similar a la que rige entre abogado y cliente o entre médico y paciente. La analogía, sin embargo, no resiste el análisis jurídico actual. Estos vínculos profesionales están anclados en cuerpos normativos claros, con responsabilidades legales específicas. En cambio, la relación con un modelo de lenguaje no está regulada, ni ofrece garantías legales equivalentes.

La propuesta, aunque creativa, parece más un intento de blindaje corporativo que una defensa efectiva de la privacidad del usuario. Si bien marca un precedente interesante, evidencia la necesidad de crear marcos regulatorios sólidos antes de que la tecnología corra más rápido que el derecho.

Privacidad condicional: lo que no dicen los avisos de las plataformas

Las plataformas de IA, especialmente aquellas de uso gratuito, nos recuerdan un axioma ya familiar: cuando no pagas por el producto, el producto eres tú. Sin embargo, esta afirmación necesita actualizarse. No se trata solo de nuestros datos personales—correo, nombre, teléfono—sino de algo más estructural: nuestras decisiones, patrones de pensamiento y rutas cognitivas. Al interactuar con una IA, no solo le hablamos; le mostramos cómo razonamos, qué priorizamos, cómo elegimos. Este conocimiento, profundamente valioso para entrenar modelos futuros, no está protegido por los avisos de privacidad estándar.

La retórica de la transparencia y el control de datos queda relegada cuando una citación judicial exige lo contrario, y ahí es donde se revela el desequilibrio estructural entre promesas de privacidad y la lógica extractiva del sistema.

Confidencialidad como derecho digital: una urgencia normativa

El caso judicial pone sobre la mesa una disyuntiva urgente: o transformamos la confidencialidad en un derecho efectivo o aceptamos que nuestras conversaciones con IA están siempre expuestas. En este contexto, la Ley de Inteligencia Artificial de la Unión Europea representa un primer intento serio por establecer límites. Aunque valiosa en su concepción, ha sido debilitada por la presión de los grandes lobbies tecnológicos, dejando zonas grises en aspectos clave como la trazabilidad, la gobernanza de datos y la responsabilidad legal. Aun así, su enfoque es relevante: reconoce que la inteligencia artificial no es solo una herramienta técnica, sino un actor estructural que necesita una regulación a su altura. Sin este tipo de legislación, seguiremos confiando en plataformas que, como OpenAI, predican transparencia mientras ocultan los mecanismos reales de uso y retención de datos.

Conclusión

Este no es un llamado al alarmismo, sino a la madurez. La relación que establecemos con las inteligencias artificiales es profunda, íntima y cada vez más frecuente. Precisamente por eso, su gobernanza no puede depender de acuerdos de uso ni de políticas internas.

La confidencialidad no debe ser una cortesía tecnológica, sino un derecho garantizado. Mientras esto no se legisle de forma clara, cada conversación con una IA será, potencialmente, una confesión sin fuero.

Publicaciones Similares