¿Y si la IA te audita antes de ayudarte?

La inteligencia artificial ha sido, durante años, un producto que se vende más de lo que se usa. Las organizaciones tienden a presentarla como un valor añadido o como una promesa estratégica, pero pocas se atreven a situarla en el centro de su estructura antes de venderla. IBM ha optado por hacerlo. Su estrategia Client Zero convierte a la empresa en su primer cliente, su primer evaluador y su primer obstáculo. No hay entorno de pruebas ni piloto limitado: la IA debe operar desde dentro o no tiene sentido ofrecerla fuera.
Esta decisión no responde solo a un criterio técnico, sino también a una postura operativa y reputacional. IBM no entrega una solución cerrada: la expone en condiciones reales. Y lo que pone en juego no es una tecnología acabada, sino una infraestructura que debe funcionar bajo las mismas fricciones y restricciones que enfrentan sus potenciales clientes. Su plataforma watsonx se presenta como capaz de automatizar procesos, gobernar datos y escalar modelos con cumplimiento normativo. Pero antes de demostrar eficiencia, la prioridad parece ser otra: verificar si la propia organización está en condiciones de adoptar lo que pretende vender.
Este planteamiento fue compartido en una edición reciente de la newsletter Neatprompts, dentro de su serie “AI at the Top”, y plantea una pregunta incómoda: ¿qué ocurre cuando una empresa se convierte en el campo de pruebas de aquello que quiere comercializar?
En este modelo, la IA deja de ser una capa decorativa para convertirse en un sistema operativo. Ya no se trata de hacer “experimentos” con inteligencia artificial, sino de convivir con ella. Y esa elección —más que en los modelos o los datos— se convierte en un ejercicio de coherencia.
Probar antes de prometer
IBM ha adoptado una idea sencilla, pero exigente: situarse como primer cliente de su propia tecnología. Client Zero no es solo una narrativa de marketing; es, al menos en parte, una práctica que traslada el riesgo desde el cliente hacia el interior de la empresa. La compañía declara haber implementado watsonx en áreas clave como la cadena de suministro, el desarrollo de código o los recursos humanos. Se habla de ahorros millonarios y automatizaciones de más del 90 %. Pero más allá de las métricas, lo interesante es la lógica: aplicar IA en sistemas reales, no en escenarios controlados.
En ese marco, cabe preguntarse qué ocurre cuando se introduce IA en organizaciones con estructuras incompletas, datos inconsistentes o gobernanza débil. No hay evidencia pública de que watsonx corrija automáticamente el desorden, pero su diseño —orientado a preparar datos, gobernar modelos y garantizar trazabilidad— sugiere que su funcionamiento podría verse limitado si el entorno no está mínimamente estructurado. De ahí se desprende una posible lectura: en lugar de imponer eficiencia, esta IA podría acabar poniendo en evidencia aquello que ya no es sostenible sin transformación previa.
Desde esa perspectiva, la verdadera utilidad no estaría solo en lo que automatiza, sino en lo que revela.
IA transversal, sin excepción
Según IBM, watsonx se despliega en áreas diversas: desde la predicción operativa hasta la automatización de consultas en recursos humanos. En cada uno de estos espacios, la IA no actúa de forma aislada, sino que interactúa con sistemas ya existentes. Eso implica que su rendimiento está condicionado por la calidad del entorno en el que opera.
Por ejemplo, en la cadena de suministro, se afirma que la plataforma puede conectar datos históricos con ejecución operativa. Pero para que eso ocurra, los datos deben estar accesibles, limpios y sincronizados. Si no lo están, el valor de la IA no desaparece, pero se diluye. Lo mismo ocurre con la documentación en desarrollo de software: automatizarla solo es viable si los vacíos de conocimiento interno están identificados. En recursos humanos, una tasa alta de automatización puede reflejar un sistema bien estructurado, pero también podría ser consecuencia de procesos que antes estaban mal definidos o dispersos.
En todos los casos, la integración de IA parece tener un efecto colateral interesante: obliga a observar las limitaciones internas que antes se podían ignorar. Esto no garantiza transformación, pero sí genera fricción. Y la fricción, en organizaciones complejas, suele ser reveladora.
No es piloto: es principio
Muchas empresas activan proyectos piloto de IA para explorar escenarios futuros. IBM ha optado por aplicar su plataforma como parte de su arquitectura operativa actual. Watsonx, según sus descripciones oficiales, no se prueba en condiciones de laboratorio: se integra en departamentos reales, con procesos heredados y estructuras imperfectas. Ese enfoque tiene un riesgo evidente: si el sistema falla, no hay margen para culpar a terceros.
Esto cambia la forma de medir el retorno. El ROI ya no se limita a métricas de eficiencia o ahorro, sino que incluye algo más difícil de cuantificar: la capacidad de identificar cuellos de botella, contradicciones internas y reglas desactualizadas. Es un enfoque similar al que siguen algunos modelos de IA por consumo: no se paga por promesas, sino por impacto real. Aquí tampoco se implementa IA para parecer moderno, sino para ver si realmente se está preparado para ella.
Esta lógica también invita a una forma distinta de pensar la integración tecnológica: no como despliegue rápido, sino como reorganización progresiva. Cada integración cuesta. Cada fallo enseña. Y cada acierto depende, en parte, de cuánto se haya tenido que reestructurar previamente.
¿Y si la IA nos observa primero a nosotros?
En un entorno empresarial donde adoptar IA suele ser símbolo de innovación, el enfoque de IBM sugiere un orden inverso: no se trata de exhibir tecnología, sino de someterse a ella. No de vender capacidades, sino de probarlas en carne propia. En esa inversión de papeles, el cliente no es el mercado. Es uno mismo.
Client Zero implica aceptar que los sistemas propios pueden fallar, que los modelos no siempre se ajustan a las condiciones internas, que la IA no encajará si no se rehacen ciertas estructuras. No hay garantía de éxito. Pero sí hay una postura: permitir que la tecnología cuestione decisiones humanas, flujos heredados y jerarquías internas.
Esa postura no es cómoda, ni es replicable en cualquier organización. Pero sí deja abierta una reflexión necesaria: antes de pedirle a la IA que nos ayude, tal vez debamos aceptar que podría, como primer gesto, mostrarnos en qué no estamos listos.