Thinking Machines: la “segunda OpenAI” ya se está formando

OpenAI ha dejado de ser un bloque monolítico. En los últimos meses, una serie de salidas estratégicas —algunas silenciosas, otras cargadas de simbolismo— han revelado una grieta estructural en su seno. Figuras fundacionales como Ilya Sutskever, John Schulman, Bob McGrew y Mira Murati —ex CTO y una de las voces más influyentes en la orientación ética de los modelos— ya no forman parte del núcleo operativo.
Según fuentes cercanas, Murati impulsa su propio laboratorio, con una visión centrada en la soberanía técnica y la responsabilidad social de la IA. Este proceso no responde simplemente a una rotación natural del talento, sino a una tensión más profunda: el conflicto entre control institucional y autonomía científica. La creación de nuevos espacios como Thinking Machines o Safe Superintelligence Inc. (SSI) no solo es consecuencia de estas diferencias, sino una manifestación de una pugna por el futuro de la inteligencia artificial. El debate no es técnico, es filosófico: ¿para qué se construye una IA poderosa y bajo qué principios se debería gobernar?
Thinking Machines: arquitectura, talento y propósito
Thinking Machines Lab, liderada por Mira Murati, ha logrado reunir un equipo de élite con una concentración notable de talento ex-OpenAI. Aunque no se puede confirmar que haya 19 fundadores originales, sí está documentado que figuras clave como John Schulman (cofundador de OpenAI), Barret Zoph (ex VP de post-training), Alec Radford (cocreador de GPT y DALL·E) y Bob McGrew (ex director de investigación) están implicados directamente, ya sea como ejecutivos o asesores estratégicos.
Esta densidad técnica no es casual: responde a una visión común de construir IA bajo principios distintos a los que hoy dominan el mercado. Lo que une a este grupo no es solo su pasado compartido, sino su propósito: crear sistemas más personalizables, comprensibles y colaborativos. Lejos del enfoque centralizado y generalista de modelos como ChatGPT, la apuesta aquí es por una IA más modular, abierta a la adaptación contextual y sensible a los entornos en los que opera.
Una IA aún invisible, pero con dirección clara
Thinking Machines no ha revelado aún su primer producto, pero la narrativa que proyecta sugiere una dirección nítida: desarrollar inteligencia artificial que no solo sea poderosa, sino gobernable. La compañía busca alejarse de los modelos cerrados, difíciles de auditar o alinear, y aproximarse a soluciones que prioricen la colaboración humano-máquina desde el diseño.
El foco estaría en arquitecturas más trazables, orientadas a tareas específicas y capaces de integrarse éticamente en entornos reales. Aunque no se ha confirmado oficialmente un objetivo de recaudación de mil millones de dólares, informes recientes apuntan a que Thinking Machines ya negocia una ronda de financiamiento significativa que podría elevar su valoración a varios miles de millones. Más que una promesa tecnológica, lo que seduce a los inversores es la claridad de visión: una IA construida con propósito, no solo con potencia.
Red de disidentes o nuevo polo de poder
La aparición de Thinking Machines, junto con iniciativas paralelas como SSI (fundada por Ilya Sutskever), no puede leerse solo como una reacción aislada. Se está configurando una nueva red de poder dentro del ecosistema de IA, compuesta por exiliados técnicos, fondos visionarios y posibles aliados institucionales que buscan alternativas al modelo centralizado y corporativo de OpenAI. Venture capital de perfil ético, gobiernos interesados en soberanía tecnológica y empresas que requieren mayor control sobre los modelos que integran, podrían ver en estos nuevos laboratorios una oportunidad estratégica.
A medida que la inteligencia artificial deja de ser un experimento de laboratorio para convertirse en infraestructura crítica, surgen nuevas tensiones entre apertura, seguridad y rentabilidad. Thinking Machines podría convertirse, más que en un competidor directo, en el núcleo de una visión paralela que proponga una IA no solo más avanzada, sino políticamente más plural.
¿Fragmentación o madurez del ecosistema IA?
La emergencia de Thinking Machines y otros spin-offs no solo plantea un cambio técnico o empresarial, sino un giro estructural en la gobernanza de la inteligencia artificial. Lo que antes parecía un juego de suma cero entre gigantes —OpenAI, Google DeepMind, Anthropic— se fragmenta ahora en múltiples centros de innovación que, aunque nacen de una raíz común, buscan caminos divergentes.
Esta descentralización puede interpretarse como síntoma de agotamiento institucional, pero también como señal de madurez: una pluralidad de enfoques, principios y formas de hacer IA. En este nuevo escenario, la pregunta ya no es quién liderará la próxima gran disrupción, sino bajo qué valores será construida. ¿Podrán estos nuevos laboratorios incorporar modelos más éticos, gobernables y especializados? ¿O estamos ante una repetición con nuevos nombres? La batalla por la IA del futuro no es solo tecnológica; es cultural y política.