Pensar mal el futuro también es una forma de poder

En los últimos meses empieza a abrirse paso una idea incómoda en el debate sobre inteligencia artificial: quizá el problema no sea si la AGI (IAG, inteligencia artificial general en español) llegará antes o después, ni siquiera si llegará alguna vez. Quizá el fallo esté en algo más básico. En la manera misma en que hemos formulado la pregunta. Pensar el futuro de la IA se ha convertido en un ejercicio tan cargado de expectativas, urgencias y promesas que cualquier intento de realismo empieza a sonar a freno, a falta de ambición o, peor aún, a incomprensión del momento histórico.
Ese desplazamiento es relevante. Porque cuando un debate se vuelve inmune a la duda, deja de ser técnico o científico y pasa a ser cultural. Ya no se discute qué sabemos, sino qué estamos dispuestos a aceptar como inevitable. Y ahí, el lenguaje deja de describir para empezar a mandar.
Cuando el problema no es la tecnología sino cómo se formula
Durante años, la conversación pública sobre IA ha girado alrededor de una pregunta aparentemente sencilla: ¿cuándo llegará la inteligencia artificial general? El problema es que esa pregunta arrastra consigo una forma muy concreta de pensar el progreso tecnológico: lineal, acumulativo y orientado a un punto final casi mítico. En ese marco, todo avance es un paso más hacia una meta predefinida, aunque esa meta nunca esté del todo clara.
Algunos análisis recientes empiezan a cuestionar ese planteamiento de raíz. No porque nieguen los avances actuales, sino porque señalan que el propio concepto de AGI se ha construido dentro de un entorno que refuerza ciertas ideas y silencia otras. Cuando el debate se formula así, no se evalúan capacidades concretas ni límites reales. Se compite por ocupar el centro del relato.
El resultado es paradójico: cuanto más abstracto se vuelve el objetivo, más fácil resulta presentarlo como cercano. Y cuanto más cercano parece, menos espacio queda para la cautela.
De AGI a superinteligencia como huida hacia conceptos inflados
En ese contexto, el desplazamiento terminológico de la AGI hacia la llamada «superinteligencia» no puede leerse solo como una evolución conceptual. Funciona más bien como una huida hacia delante. Cuando un término empieza a desgastarse por indefinición, se sustituye por otro aún más cargado de promesa, poder y excepcionalidad.
El problema no es solo semántico. Al adoptar conceptos inflados, el debate deja de girar en torno a qué hacen realmente los sistemas y pasa a organizarse alrededor de lo que supuestamente harán. La ambigüedad se convierte en ventaja: permite justificar inversiones, acelerar calendarios y reclamar liderazgo sin necesidad de demostrar avances verificables.
Así, el lenguaje empieza a operar como infraestructura. Marca ritmos, define jerarquías y establece qué preguntas son legítimas y cuáles resultan incómodas. En lugar de aclarar el estado del arte, lo envuelve en una narrativa de inevitabilidad que dificulta cualquier lectura crítica.
La cámara de eco donde las malas ideas se vuelven razonables
Este fenómeno no requiere una coordinación explícita ni una intención maliciosa. Funciona mejor precisamente porque se apoya en dinámicas culturales compartidas. Un mismo ecosistema que produce tecnología produce también metáforas, miedos y expectativas. Cuando esas ideas circulan sin apenas fricción, se refuerzan entre sí hasta adquirir apariencia de consenso.
Silicon Valley, en este sentido, opera menos como un centro de conspiración y más como una cámara de eco altamente eficiente. Las mismas hipótesis se repiten en informes, conferencias, podcasts y comunicados institucionales. Con el tiempo, dejan de percibirse como hipótesis y pasan a tratarse como puntos de partida incuestionables.
El problema no es que existan visiones optimistas o ambiciosas, sino que la repetición sustituya al contraste. En ese entorno, cuestionar el marco general no se interpreta como un ejercicio de rigor, sino como una falta de alineación. Pensar despacio empieza a parecer un lujo que el momento histórico no puede permitirse.
Pensar rápido y decidir peor
Las consecuencias de este modo de pensar no se quedan en el plano del discurso. Cuando conceptos borrosos se convierten en ejes del debate público, acaban filtrándose en decisiones muy concretas. Regulación, inversión, políticas industriales y estrategias geopolíticas empiezan a diseñarse sobre supuestos que nadie ha definido con precisión.
La narrativa de la carrera tecnológica refuerza esa dinámica. Si el futuro se presenta como una competición inevitable, la cooperación aparece como debilidad y la cautela como retraso. Los Estados compiten por liderazgo en torno a conceptos inflados, y las decisiones se toman más por miedo a quedarse atrás que por comprensión real de lo que está en juego.
El riesgo aquí no depende de que la AGI o la superinteligencia lleguen o no. El daño puede producirse mucho antes, en forma de regulaciones apresuradas, inversiones mal orientadas o tensiones geopolíticas construidas sobre expectativas irreales. Pensar mal el futuro tiene efectos muy reales en el presente.
El riesgo no es la AGI futura sino las ideas que gobiernan hoy
Nada de esto implica negar los avances en inteligencia artificial ni minimizar su impacto. Implica algo más incómodo: aceptar que la forma en que pensamos y hablamos sobre tecnología también es una forma de poder. Un poder que organiza prioridades, acelera decisiones y reduce el espacio para la deliberación colectiva.
Quizá el mayor riesgo no sea una inteligencia artificial fuera de control, sino una conversación fuera de control. Un debate donde las malas ideas se amplifican porque encajan bien con los incentivos del momento. Donde la urgencia sustituye al criterio y la promesa eclipsa a la evidencia.
Pensar mejor el futuro no garantiza evitar errores. Pero pensar mal, de forma sistemática y acelerada, casi asegura cometerlos. Y esa es una responsabilidad que no pertenece a las máquinas, sino a quienes deciden cómo se habla de ellas.