¿Estamos diseñando agentes de IA para las personas… o para las empresas que los crean?

Los agentes de inteligencia artificial son el nuevo tótem de la innovación tecnológica. En 2025, la industria parece haberse puesto de acuerdo en una idea: el futuro de la productividad y de la interacción digital pasa por sistemas capaces de actuar “solos”. Es decir, por tecnologías que ya no esperan instrucciones, sino que las anticipan, las ejecutan y —supuestamente— las mejoran. Esa es la promesa. Y también el riesgo.
El Wall Street Journal, en su artículo “AI Agents Are a Moment of Truth for Tech”, ofrece una radiografía interesante de este fenómeno. Describe cómo empresas como OpenAI, Nvidia, Apple o Salesforce han convertido el desarrollo de agentes en una prioridad estratégica. No solo por sus posibilidades funcionales, sino por lo que representan en términos de narrativa y posicionamiento de marca: autonomía, sofisticación, escalabilidad.
El texto plantea una tensión que me parece esencial: la tecnología ha avanzado de forma notable pero la autonomía plena, aquella que se anuncia en conferencias y notas de prensa, aún está lejos. Lo que hoy llamamos “agentes inteligentes” siguen siendo sistemas profundamente orquestados, dependientes de reglas humanas y contextos acotados.
Y sin embargo, ese matiz no siempre se comunica. Al contrario: la imagen que se proyecta es la de una tecnología que ya actúa por sí misma. Y ahí es donde me empiezan a surgir preguntas que no son técnicas, sino más bien de diseño, de propósito… incluso de sentido.
¿Qué significa autonomía cuando no hay intención?
Una de las cosas que más me intriga es cómo usamos el lenguaje para describir estas tecnologías. Llamamos “autónomo” a un sistema que sigue instrucciones preprogramadas, que depende de entornos cuidadosamente definidos, y que —en muchos casos— requiere una intervención humana constante para no desviarse. ¿Es eso autonomía? ¿O es solo automatización mejorada?
La palabra “agente” sugiere intención, iniciativa, incluso voluntad. Pero estos sistemas no tienen deseos, ni motivaciones, ni comprensión del contexto humano más allá de lo que sus parámetros estadísticos les permiten simular. Entonces, ¿qué papel real les estamos otorgando? ¿Nos estamos proyectando demasiado en lo que hacen? ¿O estamos esperando que cumplan funciones para las que aún no están preparados?
El usuario, ese gran ausente
Más allá de la fascinación tecnológica, hay algo que me incomoda cada vez más: la creciente desconexión entre el diseño de estos sistemas y las necesidades reales de las personas que los van a usar. Gran parte de la innovación en agentes de IA parece impulsada por lo que es posible hacer, no por lo que hace falta.
Veo soluciones que automatizan tareas que nadie pidió automatizar. Interfaces que hacen más complejo lo que antes era simple. Agentes que “toman la iniciativa” pero que rara vez entienden el contexto en el que operan. Y entonces me pregunto: ¿a quién están sirviendo realmente estas tecnologías? ¿Al usuario o a las métricas de eficiencia de las plataformas que las desarrollan?
No digo que no haya valor en lo que se está construyendo. De hecho, creo que hay un enorme potencial si estas herramientas se diseñan bien. Pero para eso hay que volver a mirar hacia abajo, al terreno, a la experiencia cotidiana. Hay que escuchar más y suponer menos. Y sobre todo, hay que dejar de hablar en abstracto de “el usuario” como una categoría genérica y empezar a pensar en personas reales, con contextos, limitaciones y preferencias diversas.
La ilusión del progreso lineal
Una de las narrativas más persistentes en torno a la inteligencia artificial es la idea de un progreso lineal: cada versión es mejor, más capaz, más cercana a la autonomía total. Pero esa lógica no siempre se sostiene cuando uno observa cómo se comportan estos sistemas en la práctica.
Sí, procesan más datos. Sí, generan texto más fluido. Pero ¿entienden mejor? ¿Se adaptan mejor a los matices de una conversación humana? ¿Cometen menos errores graves? La realidad es que la complejidad del mundo no ha disminuido, y la capacidad de estos agentes para navegarlo sigue siendo limitada, sobre todo cuando se enfrentan a situaciones ambiguas, abiertas o éticamente delicadas.
Por eso me cuesta creer en esa idea de que estamos a punto de delegar tareas críticas a sistemas que aún no son capaces de explicarse a sí mismos, ni de asumir las consecuencias de sus acciones. Y me preocupa que, en nombre de la eficiencia, estemos normalizando una relación con la tecnología en la que la comprensión queda en segundo plano frente a la ejecución automática.
Tal vez no necesitamos más inteligencia, sino más empatía
No se trata solo de hacer agentes más potentes. Quizá lo urgente sea hacerlos más sensibles al contexto humano. Y eso no tiene tanto que ver con la arquitectura de los modelos como con las preguntas que guían su desarrollo.
¿Estamos construyendo tecnología que escucha o que solo responde?
¿Estamos creando sistemas que nos acompañan o que nos sustituyen?
¿Estamos diseñando desde la empatía o desde la obsesión por la automatización?
No tengo respuestas definitivas. Solo inquietudes que se intensifican a medida que el discurso sobre los agentes se vuelve más dominante, más omnipresente, más entusiasta. Y aunque entiendo el valor de imaginar futuros posibles, también creo que es momento de hacer una pausa y preguntarnos: ¿a quién le pertenece ese futuro? ¿Quién está decidiendo qué significa progreso?
Reflexión final: pensar en voz alta también es una forma de participación
No soy experto, ni académico, ni ingeniero. Solo alguien que sigue con atención lo que ocurre en el mundo de la inteligencia artificial y que, como muchos, intenta entender hacia dónde vamos. No escribo esto para afirmar verdades absolutas, sino para compartir preguntas que me parecen importantes, precisamente porque no tienen una única respuesta.
Si los agentes de IA son el próximo paso, entonces deberíamos participar más activamente en definir qué esperamos de ellos. No solo en términos de capacidades, sino de valores, de relaciones, de impacto social.
El artículo del Wall Street Journal habla de este momento como un punto de inflexión para la industria. Quizá también lo sea para nosotros, como usuarios, como ciudadanos, como comunidad. Y en ese cruce de caminos, hacerse preguntas no es solo legítimo. Es necesario.