La nueva externalización que casi nadie discute

OpenAI for Countries entra en una nueva fase. Tras los primeros acuerdos con países dispuestos a integrar infraestructura, modelos y servicios de inteligencia artificial bajo un mismo marco, el programa da ahora un paso más: se dota de una estructura ejecutiva propia, con mandato político y vocación global. No es un gesto simbólico, sino un movimiento de consolidación.
El nombramiento de una figura con experiencia gubernamental para coordinar relaciones con Estados, definir estándares, impulsar formación y acompañar el despliegue en servicios públicos indica que la iniciativa deja atrás la lógica de proyectos piloto. OpenAI ya no se limita a firmar acuerdos selectivos; empieza a organizar su presencia internacional como un sistema coherente, con dirección, jerarquía y continuidad.
Cuando una estrategia pasa de acumular acuerdos a construir una estructura capaz de sostenerlos, deja de operar como programa. Empieza a funcionar como infraestructura política.
OpenAI for Countries como culminación, no como origen
Conviene situar el movimiento en su justa medida. OpenAI for Countries es la cristalización de una lógica que se ha ido formando a medida que la inteligencia artificial dejaba de ser un asunto de laboratorio para convertirse en una tecnología de uso general, incrustada en servicios públicos, procesos laborales y decisiones institucionales.
Primero llegó el discurso: la IA como herramienta estratégica para los Estados. Después, la narrativa de la cooperación y la adopción responsable. Ahora, la ejecución. La creación de una cabeza de lanza ejecutiva no busca explicar la IA a los gobiernos, sino acompañar, y condicionar, la forma en que estos la integran en su funcionamiento cotidiano. Ese matiz es decisivo.
Aquí la empresa tecnológica ya no actúa solo como proveedor ni como asesor. Empieza a ocupar un espacio intermedio, difícil de clasificar, donde se cruzan intereses comerciales, diseño institucional y definición de estándares.
De exportar tecnología a gobernar la adopción
Durante años, el liderazgo tecnológico se ha medido en capacidad de producción: más potencia de cálculo, mejores modelos, mayor velocidad de despliegue. Esa lógica empieza a mostrar sus límites. Exportar tecnología sin controlar su uso puede ser rápido y rentable, pero diluye la influencia a medio plazo. El hardware deja de ser una ventaja estratégica y se convierte en un recurso intercambiable. La infraestructura, también.
La apuesta que se perfila es distinta. No basta con que otros utilicen tu tecnología. Importa cómo la utilizan, en qué contextos, con qué reglas y bajo qué supuestos culturales. OpenAI for Countries aparece así como un paquete integral: computación, modelos, servicios, formación, estándares de seguridad y una narrativa coherente sobre el uso “correcto” de la IA.
Este enfoque no ralentiza la adopción por accidente, sino por diseño. Introduce fricción donde antes había transferencia directa. Y esa fricción es, precisamente, una forma de control.
El playbook heredado y el salto cualitativo
El paralelismo con otras grandes plataformas tecnológicas es inevitable. En su momento, las redes sociales comprendieron que crecer sin gestionar la relación con los Estados era insostenible. Ficharon perfiles políticos, construyeron equipos de asuntos públicos y aprendieron a dialogar con reguladores. La diferencia es de escala y de profundidad.
Las redes sociales organizaban atención, discurso y opinión. La inteligencia artificial promete reorganizar trabajo, servicios públicos, educación y toma de decisiones. El salto no es cuantitativo, es cualitativo. Gestionar la adopción de la IA implica intervenir en capas mucho más profundas de la vida institucional.
Por eso el rol ejecutivo que ahora emerge no se limita a la regulación o la comunicación. Incluye formación laboral, mejora de servicios públicos y definición de estándares de seguridad. Es decir, toca directamente el modo en que los Estados funcionan y cómo sus ciudadanos interactúan con sistemas automatizados.
El punto ciego de la gobernanza algorítmica
Aquí aparece una tensión menos visible, pero quizá más decisiva. Gobernar la adopción de la IA no es solo una cuestión de infraestructura o normativa. Es, también, una cuestión de aprendizaje. ¿Quién enseña a convivir con estos sistemas? ¿Bajo qué criterios se forma a quienes los usan en la administración, en el trabajo o en la educación?
La alfabetización en IA suele presentarse como un bien en sí mismo. Saber usar herramientas, comprender modelos, familiarizarse con algoritmos. Pero hay una diferencia sustancial entre formar usuarios eficientes y formar sujetos críticos. La primera reduce fricción y aumenta productividad. La segunda introduce preguntas incómodas sobre límites, sesgos y dependencia.
Cuando la infraestructura, la formación y los valores llegan en el mismo paquete, la autonomía se vuelve más frágil. No porque exista mala fe, sino porque el marco de uso ya viene decidido. La ética puede estar incluida, pero delimitada. La gobernanza puede ser explícita, pero no necesariamente discutible.
De la soberanía técnica a la soberanía cultural
Este es el desplazamiento más relevante. Durante mucho tiempo, la soberanía tecnológica se entendió en términos de acceso: tener servidores, datos, capacidad de cómputo. Hoy empieza a medirse de otra forma. La verdadera brecha no está solo en quién desarrolla los modelos, sino en quién define cómo se integran en la vida cotidiana y cómo se aprende a relacionarse con ellos.
Externalizar infraestructura es visible y debatible. Externalizar marcos de uso y aprendizaje es más sutil. Y, sin embargo, tiene efectos más duraderos. Condiciona la forma en que las instituciones piensan, deciden y delegan.
La estructura ejecutiva de OpenAI for Countries actúa, en este sentido, como señal de madurez estratégica. No inaugura la diplomacia tecnológica, pero la profesionaliza. No inventa la dependencia, pero la hace más eficiente. Y, al hacerlo, obliga a los Estados a plantearse una pregunta que hasta ahora se evitaba: no si adoptarán inteligencia artificial, sino bajo qué condiciones aprenderán a hacerlo.
El poder ya no se juega solo en el código ni en el hardware. Se juega en la capacidad de definir el marco dentro del cual la IA se vuelve normal. Y esa normalidad, una vez establecida, es difícil de revertir.