Equipos de IAs: ¿el futuro de la inteligencia colaborativa?

En junio analizamos cómo Sakana AI proponía un giro contracultural en la inteligencia artificial a través de sus Continual Thinking Models (CTMs): modelos que, en lugar de responder con rapidez, razonan paso a paso, como si pensaran “en voz baja”. Aquella apuesta por la deliberación frente a la inmediatez representaba un cambio de paradigma frente a los grandes modelos del mercado.
Hoy, Sakana da un paso más: no se trata solo de pensar despacio, sino de pensar en equipo. En colaboración con investigadores como Yoshua Bengio, la compañía ha desarrollado sistemas como TreeQuest, que permiten a distintos modelos de IA colaborar entre sí para resolver problemas complejos. El concepto ya no es únicamente el de una IA reflexiva, sino el de una inteligencia organizada, distribuida y especializada, donde cada modelo cumple un rol, dialoga y decide colectivamente. Estamos, quizá, ante el surgimiento de una nueva categoría: la IA como estructura cognitiva, no como ente aislado.
TreeQuest y el nacimiento de los “comités de IAs”
El proyecto TreeQuest se presenta como un experimento con profundas implicaciones teóricas: varios modelos de IA, entrenados por separado, pueden resolver tareas colaborativamente sin necesidad de fundirse en un único sistema monolítico. En términos prácticos, TreeQuest opera como un árbol de decisiones en el que cada nodo representa un modelo que aporta una inferencia parcial o una hipótesis que será examinada por los siguientes modelos en la cadena.
El sistema recuerda, en su estructura, a los equipos humanos de investigación o estrategia: cada integrante posee una competencia específica, y la solución emerge no de la genialidad individual, sino del entrelazado deliberado de sus aportaciones. Como herramienta open-source, TreeQuest no solo valida esta arquitectura colaborativa, sino que invita a la comunidad global a experimentar con ella. En un contexto dominado por la centralización de la IA en modelos gigantescos, esta visión modular y coordinada supone un soplo de aire fresco: ¿y si el futuro de la IA no es más grande, sino más conectado?
Especialización, delegación y resolución colectiva: ecos de la inteligencia humana
Los equipos de IA que plantea Sakana recuerdan inevitablemente a nuestras propias formas de organización cognitiva. Las empresas, los comités científicos, incluso los jurados populares, funcionan bajo el principio de que la deliberación entre voces distintas puede producir decisiones más robustas. En TreeQuest, cada modelo no solo aporta su “voz”, sino que lo hace con una perspectiva específica, a veces incluso contradictoria.
Lejos de buscar consenso inmediato, el sistema explora alternativas, refina hipótesis y distribuye carga cognitiva. Esta estrategia no solo resulta eficiente en términos de precisión, sino que introduce una dimensión cualitativa: la IA empieza a parecerse menos a una calculadora y más a un equipo de trabajo. La noción de inteligencia colectiva, que desde la psicología y la biología social se ha estudiado durante décadas, cobra así una nueva forma artificial. Ya no hablamos solo de redes neuronales, sino de ecologías de modelos, donde la solución no está en la unidad, sino en la interacción.
Desafíos, dilemas y horizontes: ¿puede existir una organización artificial?
La idea de una inteligencia distribuida entre múltiples modelos plantea cuestiones técnicas, pero también filosóficas. ¿Quién coordina el proceso? ¿Cómo se resuelve el conflicto entre modelos con salidas divergentes? ¿Puede una organización de IAs desarrollar dinámicas emergentes que escapen al control humano? Más allá de lo experimental, estas preguntas tocan el núcleo del debate sobre autonomía y agencia en sistemas complejos. Si hoy usamos IAs para tareas individuales —resumir textos, generar código, escribir correos—, ¿podríamos en el futuro delegar decisiones estratégicas a comités artificiales con competencias especializadas?
En entornos corporativos, gubernamentales o médicos, esta hipótesis no es descabellada. Sin embargo, también abre el riesgo del “pensamiento grupal algorítmico”: soluciones consensuadas por modelos que refuerzan sesgos comunes o evitan soluciones disruptivas. La gobernanza de estos sistemas exigirá no solo arquitectura técnica, sino reglas claras sobre deliberación, auditoría y disenso.
¿Y si tu próxima junta directiva fuera un comité de modelos IA?
En nuestro artículo anterior nos preguntábamos si pensar más lento podía ser la clave de una IA verdaderamente reflexiva. Hoy la pregunta se expande: ¿y si pensar juntos fuera el siguiente paso evolutivo? La propuesta de Sakana y TreeQuest no es simplemente una mejora técnica, sino una reimaginación completa del sujeto artificial. Ya no se trata de construir modelos más poderosos, sino de diseñar ecosistemas de colaboración algorítmica, donde la inteligencia no esté en el modelo, sino en la red.
Esta idea resuena con preguntas profundamente humanas: ¿la deliberación colectiva supera siempre a la individual? ¿Qué pasaría si las decisiones estratégicas de tu empresa, o incluso de tu gobierno, fueran tomadas por un grupo de IAs? Como en toda innovación, el reto no es solo técnico. Es cultural, organizacional y, sobre todo, filosófico. La inteligencia artificial ha aprendido a pensar. Ahora está aprendiendo a pensar con otros.