2025 no fue el año de la inteligencia artificial. Fue el año de sus límites

Durante 2025 se consolidó una sensación extraña. La inteligencia artificial estaba en todas partes y, al mismo tiempo, cada vez resultaba más difícil señalar con claridad dónde estaba funcionando de verdad. No como demostración, no como promesa, no como titular. Funcionando en el sentido estricto: integrada, sostenida, asumida como parte del trabajo cotidiano sin necesidad de épica.

No fue un año de descubrimientos espectaculares. Fue un año de fricción. Y esa fricción dice más sobre hacia dónde vamos en 2026 que cualquier anuncio de modelo o cualquier comparativa de capacidades.

Lo relevante ya no estaba en lo que la IA podía hacer, sino en todo lo que hacía falta alrededor para que pudiera hacerlo sin romper cosas.

De la fascinación al aterrizaje

En retrospectiva, 2025 marca el final de una fase muy concreta: la de la fascinación generalizada. La IA dejó de ser una novedad cultural y pasó a convertirse en una infraestructura incómoda, algo que exige decisiones, recursos, renuncias y responsabilidades.

Los grandes informes coinciden en ese desplazamiento. El AI Index 2025 del Stanford HAI ya no se centra tanto en el crecimiento de capacidades como en los costes, la concentración de poder y las barreras reales de adopción. La pregunta dominante deja de ser «¿qué viene después?» y pasa a ser «¿qué se puede sostener?».

Ese cambio se nota también en el lenguaje. Cada vez aparecen menos promesas abiertas y más palabras como integración, gobernanza, eficiencia o retorno. No porque la IA haya dejado de avanzar, sino porque el contexto que la rodea ya no admite ligereza.

Estos límites no se distribuyen de forma homogénea. Mientras algunos actores pueden absorber costes, externalizar fricciones y sostener infraestructuras complejas, otros descubren que la promesa de la IA se estrecha rápidamente cuando falta energía, capital, datos propios o margen operativo.

Infraestructura: cuando el futuro tropieza con el hormigón

Durante 2025 se habló mucho de agentes, de autonomía y de sistemas cada vez más complejos. Pero cuando uno mira dónde se están atascando los despliegues reales, el problema rara vez es algorítmico. Es físico.

El nexo entre IA y energía, señalado por el World Economic Forum en varios informes de 2024 y 2025, dejó de ser un asunto abstracto. Centros de datos paralizados por falta de conexión eléctrica, proyectos retrasados por ausencia de agua para refrigeración, hardware almacenado sin poder instalarse. El futuro computacional chocando literalmente contra la red eléctrica. En ese contexto, la infraestructura deja de ser un problema técnico y empieza a convertirse en un espacio de disputa: quién accede a energía estable, quién asume el impacto ambiental y qué usos se priorizan cuando los recursos no alcanzan para todo.

Ese choque no es anecdótico ni transitorio. A lo largo de 2025 empezó a hacerse visible una tensión más profunda entre la promesa de crecimiento ilimitado y la capacidad real de las infraestructuras para sostenerlo. La sensación de estar empujando sistemas digitales sobre bases físicas al límite se volvió recurrente al analizar hasta qué punto la expansión acelerada de la IA estaba empezando a colapsar la red que la alimenta.

Esto introduce una primera corrección de expectativas para 2026: la IA no escala al ritmo que escala el software. Escala al ritmo del cemento, del cobre, de las autorizaciones administrativas y de la estabilidad geopolítica de las cadenas de suministro.

Ese límite no invalida la tecnología, pero sí obliga a priorizar. No todo puede automatizarse, no todo puede correr en tiempo real, no todo merece el coste energético que implica. Y ese filtro, por primera vez, empieza a ser explícito.

Del modelo grande al sistema útil

Uno de los consensos más claros que deja 2025 es el agotamiento del modelo único y omnipotente como solución universal. No porque haya dejado de mejorar, sino porque su coste marginal empieza a superar su utilidad marginal en muchos contextos.

Ese desgaste no es solo técnico; también es narrativo. Durante 2025 empezó a hacerse visible una fatiga más profunda: la del ciclo constante de anuncios, versiones y “saltos” que apenas alteran el fondo. Cuando el modelo del mes deja de convencer, lo que queda expuesto ya no es la potencia, sino la fragilidad del sistema que se construye alrededor.

Aquí encaja bien la lectura que hace Gartner en sus Top Tech Trends for 2026, donde sitúa a los domain-specific language models como una de las piezas clave de la siguiente fase. El desplazamiento no es solo técnico; es organizativo: modelos más pequeños, entrenados con datos propios, integrados en procesos concretos y gobernados de forma explícita.

No es una vuelta atrás. Es una especialización forzada. Y, sobre todo, una señal de que la pregunta ya no es «qué modelo usamos», sino «qué sistema estamos construyendo alrededor del modelo».

El mito del piloto eterno

Si hay un dato que resume bien el desencanto silencioso de 2025, es el que aparece en un informe del MIT, difundido ampliamente por MIT Technology Review y Fortune: la mayoría de los proyectos de IA generativa no pasan de la fase piloto.

No porque fallen estrepitosamente, sino porque no consiguen escalar sin romper la organización. Falta de datos limpios, procesos mal definidos, responsabilidades difusas, resistencia cultural. La IA funciona, pero no encaja.

Este estancamiento no responde a un fallo puntual, sino a un patrón que se repite cuando la adopción tecnológica se plantea como experimento permanente. El problema no es que los pilotos no funcionen, sino que se prolongan indefinidamente porque la organización no ha decidido todavía qué está dispuesta a cambiar para que la IA deje de ser una prueba y pase a ser infraestructura.

En muchos casos, el piloto eterno no persiste por incapacidad, sino porque permite sostener una narrativa de innovación sin asumir todavía las decisiones estructurales, y los costes políticos internos, que exige pasar a producción.

Ese «purgatorio del piloto» explica por qué tantas empresas hablan de IA y tan pocas pueden señalarla como infraestructura crítica. También explica el cambio de tono hacia 2026: menos experimentación dispersa, más exigencia de retorno, más cancelaciones silenciosas.

La lección no es tecnológica. Es estructural.

Regulación: cuando deja de ser teoría

Durante años, la regulación de la IA se trató como una abstracción futura. En 2025 dejó de serlo. El AI Act europeo, junto con iniciativas regulatorias en Estados Unidos y Asia, empezó a condicionar decisiones reales: qué se despliega, dónde, con qué datos y bajo qué responsabilidades.

Ese aterrizaje normativo no sorprendió a quienes venían observando cómo la gobernanza de la IA empezaba a desplazarse del debate ético al terreno operativo. A lo largo de 2025 se hizo evidente que regular ya no consistía en frenar la innovación, sino en definir quién asume el riesgo, cómo se reparte la responsabilidad y qué usos dejan de ser negociables cuando los sistemas pasan a tener impacto estructural.

Esto no es un debate jurídico. Es una variable estratégica. La regulación introduce fricción, sí, pero también reduce la ambigüedad. Obliga a definir qué sistemas requieren supervisión humana, qué usos son aceptables y quién responde cuando algo falla.

En la práctica, muchas organizaciones han optado por adelantarse, creando marcos internos de gobernanza antes de que la ley lo exija. No por altruismo, sino porque operar sin reglas claras se ha vuelto más arriesgado que operar con ellas.

Desde el sector privado empezaron a escucharse voces que reclamaban algo más que regulación. La gobernanza sin inversión en infraestructuras, talento y transición organizativa empezaba a percibirse como un marco incompleto, capaz de ordenar riesgos pero no de hacer viable el despliegue responsable que se exigía.

El factor humano: fatiga, no miedo

Uno de los errores más comunes al analizar la resistencia a la IA es atribuirla al miedo. Lo que se detecta en 2025 es otra cosa: fatiga.

Fatiga por herramientas que cambian cada mes. Fatiga por flujos de trabajo inestables. Fatiga por tener que supervisar sistemas que prometían ahorrar tiempo y acaban generando más revisión. Este fenómeno aparece de forma recurrente en estudios de clima laboral y adopción tecnológica, aunque rara vez ocupa titulares.

Esta fatiga no se limita a los equipos operativos. También alcanza a los niveles directivos, atrapados entre la presión por “no quedarse atrás” y la dificultad creciente para distinguir entre avances reales, promesas recicladas y riesgos mal calibrados.

Esta fatiga no surge de una negativa frontal, sino de la convivencia prolongada con sistemas que nunca terminan de asentarse. Cuando la tecnología exige una adaptación constante pero no ofrece estabilidad a cambio, el desgaste no se manifiesta como rechazo, sino como distanciamiento progresivo, cumplimiento formal y pérdida de implicación.

No es un rechazo frontal. Es una retirada silenciosa. Uso mínimo, cumplimiento formal, entusiasmo decreciente. Y es un límite tan real como el energético.

Información, ruido y pérdida de confianza

En el ámbito informativo, 2025 fue el año en que la generación masiva de contenido dejó de percibirse como una ventaja automática. La proliferación de textos, imágenes y vídeos sintéticos empezó a erosionar la confianza y a saturar la atención.

Esta saturación no solo afecta a la cantidad de contenido disponible, sino a la capacidad del sistema informativo para establecer jerarquías de sentido. Cuando todo puede producirse a escala industrial, la escasez deja de estar en la creación y pasa a concentrarse en la selección, el contexto y la responsabilidad editorial.

Diversos análisis apuntan a una paradoja: nunca fue tan fácil producir contenido y nunca fue tan difícil que ese contenido importe. La IA no solo acelera la producción; también acelera la irrelevancia.

Este fenómeno empieza a generar una reacción cultural: mayor valoración de la curaduría, de la autoría reconocible, de la intervención humana explícita. No como nostalgia, sino como mecanismo de orientación en un entorno saturado.

La revalorización de la curaduría y la autoría plantea así una pregunta incómoda que 2025 dejó abierta: cómo sostener económicamente aquello que aporta contexto, criterio y responsabilidad en un ecosistema optimizado para producir sin fricción.

2026: menos magia, más mantenimiento

Todo esto no significa que la inteligencia artificial no haya funcionado en 2025. Lo ha hecho, sobre todo, en espacios discretos, altamente controlados y poco visibles: allí donde el problema estaba bien definido, el margen de error era aceptable y la integración importaba más que la espectacularidad.

Y esto dibuja un horizonte bastante claro para 2026. No será el año de la explosión definitiva ni del colapso. Será el año de la madurez incómoda.

La IA seguirá avanzando, pero lo hará condicionada por límites físicos, regulatorios, organizativos y humanos. Los proyectos que funcionen no serán los más ambiciosos, sino los mejor integrados. Los sistemas más valiosos no serán los más autónomos, sino los más gobernables.

En ese contexto, la ventaja no estará en descubrir la próxima herramienta, sino en sostener lo que ya se ha desplegado. Menos magia. Más mantenimiento. Menos promesas. Más responsabilidad.

Y quizá esa sea la señal más clara de que la inteligencia artificial ha dejado de ser una promesa futurista para convertirse, por fin, en una tecnología adulta.

Publicaciones Similares