El negocio de Perplexity: saberlo todo de ti para vender mejor

Los humanos hemos vuelto a estar en el menú. Primero lo estuvimos como materia prima para alimentar las redes sociales; ahora, el protagonismo lo asume la inteligencia artificial, y con ella una nueva economía de la vigilancia donde lo que vale no es lo que decimos, sino cómo actuamos. En este contexto, el anuncio del CEO de Perplexity —una IA que promete ofrecer respuestas más relevantes rastreando toda la actividad del usuario en su navegador— no representa tanto una ruptura como una confesión: ha señalado al elefante en la habitación.
Frente a modelos que disimulan la extracción de datos tras interfaces amables, Perplexity explicita una lógica ya en marcha. La pregunta entonces no es solo qué tan privados son nuestros datos —porque probablemente ya no lo sean—, sino qué tipo de información se está priorizando. Hoy, el verdadero activo no es el historial, sino el comportamiento en tiempo real: decisiones, patrones, lenguaje, contexto. El chantaje es implícito pero efectivo: “dame acceso total o quédate fuera del futuro de la IA”. Así, el navegador se transforma en interfaz de captura, y la personalización deja de ser una ventaja para convertirse en condición de entrada. El dilema se vuelve estructural.
Utilidad o abuso: el límite se desdibuja
La promesa de una web hiperpersonalizada se presenta como un avance funcional: mejores respuestas, menos ruido, más precisión. Sin embargo, esta narrativa de utilidad oculta un giro sutil pero crucial. Lo que se ofrece como mejora de experiencia es, en realidad, un rediseño del pacto digital: se normaliza la renuncia al control personal a cambio de eficiencia algorítmica. Perplexity no propone solo una optimización del acceso a la información, sino una arquitectura que se alimenta del usuario en tiempo real.
El discurso es conocido —“si quieres resultados mejores, necesito conocerte más”—, pero el alcance es nuevo: ya no hablamos de preferencias declaradas, sino de observación total del comportamiento digital. El riesgo no es solo técnico, sino simbólico: cuando se desdibuja la línea entre servicio y extracción, también se erosiona la capacidad del usuario para discernir entre consentimiento informado y aceptación pasiva. El valor de la relevancia comienza a justificar mecanismos que antes consideraríamos intrusivos, y lo que era vigilancia encubierta bajo cookies y píxeles, hoy se reactiva bajo una lógica explícita de acompañamiento algorítmico. La utilidad, entonces, ya no es neutral; se convierte en coartada.
La guerra por el contexto: el navegador como interfaz de poder
En la nueva economía digital, el contexto se ha convertido en el recurso más codiciado. No basta con saber qué busca el usuario; hay que entender cómo, cuándo y por qué lo hace. Esa es la premisa detrás del movimiento de Perplexity, que ya no se conforma con indexar conocimiento, sino que aspira a habitar el recorrido completo del usuario. El navegador —durante décadas una simple herramienta de acceso— se redefine así como espacio soberano de captura. Controlar esta interfaz significa observarlo todo: las dudas que se repiten, los hábitos de consulta, las plataformas elegidas, incluso las pausas entre clics.
No se trata de datos aislados, sino de un flujo de sentido que alimenta modelos de lenguaje y predicción. Quien posee el navegador no solo ofrece mejores respuestas: domina la narrativa de interacción. En este escenario, la carrera por la IA contextual se convierte también en una carrera por ocupar ese punto de acceso privilegiado. Porque si el contenido es el rey, el contexto es el terreno donde se libra la batalla por su soberanía. Y hoy, cada sesión de navegación es, potencialmente, un campo de entrenamiento para un nuevo “yo digital” modelado desde fuera.
Privacidad en jaque: lo que ganamos y lo que cedemos
La inteligencia artificial contextual representa una promesa tentadora: sistemas que no solo responden, sino que comprenden. Pero esa comprensión exige una cesión profunda. No se trata ya de datos explícitos, sino de patrones, inferencias, relaciones implícitas que se extraen del uso cotidiano. En este modelo, la privacidad no se vulnera de forma evidente; se disuelve progresivamente. El usuario se convierte en fuente continua de entrenamiento, no solo cuando interactúa, sino cuando navega, decide o duda. Es un modelo que opera en lo invisible.
A diferencia de los acuerdos de consentimiento tradicionales, la captura actual de datos es estructural, difícil de evitar sin desconectarse por completo del ecosistema digital. Plataformas como OpenAI ofrecen ciertos niveles de control y transparencia, pero el movimiento de Perplexity sugiere un escenario más frontal: el rastreo como condición de mejora. En este contexto, la pregunta ya no es si tenemos algo que esconder, sino si nos queda algo por proteger.
La privacidad ya no es un derecho pasivo, sino una negociación constante entre exclusión tecnológica y exposición permanente. La hiperpersonalización plantea así su dilema más serio: en la búsqueda por respuestas más humanas, ¿estamos perdiendo lo que nos hacía humanos?
¿Vigilancia como destino? Alternativas y dilemas para el futuro
Aceptar la vigilancia como condición inevitable para el acceso a la inteligencia artificial parece, por momentos, una resignación tácita. Sin embargo, esa aparente inevitabilidad merece ser cuestionada. ¿Es técnicamente imposible una IA útil sin rastreo total o simplemente más costosa y menos rentable? La respuesta no es trivial. Mientras empresas como Perplexity proponen una integración total de comportamiento y respuesta, otras voces —desde la investigación en IA responsable hasta los marcos legales emergentes— plantean modelos más éticos, aunque menos eficientes en lo inmediato.
La cuestión de fondo es qué tipo de relación queremos construir con las máquinas: una basada en el sometimiento opaco o en la colaboración transparente. El riesgo no está solo en lo que las IA saben de nosotros, sino en lo que nos obligan a aceptar para seguir participando. En un escenario donde la línea entre lo íntimo y lo público se diluye, defender la privacidad ya no es proteger un espacio estático, sino recuperar la capacidad de decidir.
El futuro no está escrito, pero su arquitectura ética comienza a definirse hoy. Y lo que esté en juego ya no es solo la calidad de las respuestas, sino la naturaleza misma de la relación entre humanos y sistemas inteligentes.