Por qué hoy creemos que la IA estuvo detrás aunque no haya pruebas

La noche en que miles de personas esperaron fuegos artificiales que nunca existieron no fue una noche excepcional. Fue una escena perfectamente verosímil. Alguien había visto un vídeo, otros lo habían confirmado con versiones casi idénticas y, cuando nada ocurrió, la explicación circuló con rapidez: la culpa había sido de la IA. En concreto, de ChatGPT. El error parecía encajar tan bien con el clima del momento que apenas necesitó pruebas. Eso es lo nuevo. No el bulo, sino la facilidad con la que atribuimos su origen a un sistema que quizá ni siquiera intervino.
Hace tres o cuatro años, esa hipótesis habría resultado extraña. La inteligencia artificial estaba asociada a laboratorios, universidades o grandes corporaciones, no a la experiencia cotidiana de millones de personas. Hoy, en cambio, forma parte del paisaje cognitivo. Está en el trabajo, en la búsqueda, en la escritura, en la conversación. Y esa presencia constante ha generado algo más que uso: ha generado plausibilidad. La IA se ha convertido en una causa posible por defecto, incluso cuando no hay datos que la respalden.
Cuando algo parece posible, deja de necesitar pruebas.
La desinformación no siempre triunfa por su sofisticación. A veces basta con que encaje con lo que ya creemos posible. En el caso del puente de Brooklyn, el vídeo que circuló no era falso en sentido estricto. Mostraba fuegos artificiales reales, grabados meses antes durante la celebración del 4 de julio. El engaño no estuvo en la imagen, sino en su recontextualización: se presentó como un adelanto de una supuesta celebración de Nochevieja para la que no existía ningún permiso oficial.
Nada de eso es nuevo. Las plataformas llevan años amplificando contenidos sacados de contexto. Lo llamativo vino después. Cuando el espectáculo no ocurrió, un post viral en Reddit atribuyó el error a una respuesta generada por ChatGPT. El propio texto aclaraba que el modelo no había sido la fuente, pero esa matización se perdió en la circulación. La explicación cómoda, la IA lo dijo, se propagó más rápido que la verificación.
Ese desplazamiento revela un cambio cognitivo profundo. La pregunta ya no es si la IA puede equivocarse, sino por qué estamos dispuestos a asumir que estuvo implicada aunque no haya rastro de ello. La respuesta tiene menos que ver con la tecnología que con la percepción. Algo ha cambiado en la forma en que construimos hipótesis sobre lo que ocurre a nuestro alrededor.
Dos capas de desinformación que se refuerzan
El episodio muestra un patrón en dos tiempos. Primero, la desinformación primaria: cuentas en TikTok e Instagram reutilizan un material auténtico y lo presentan como otra cosa. Segundo, la desinformación secundaria: la atribución errónea del fallo a la IA. Esta segunda capa no corrige la primera, la reordena. Traslada la atención desde el mecanismo real de propagación, plataformas, incentivos, reciclaje de contenido, hacia un chivo expiatorio abstracto y omnipresente.
La paradoja es evidente. En lugar de preguntarnos quién publicó el vídeo, por qué se viralizó o qué señales se ignoraron, el debate se desplaza hacia un actor que ni siquiera participó. La IA aparece como explicación total, no porque sea la más probable, sino porque es la más disponible. Funciona como un atajo mental en un entorno saturado de estímulos y de sospecha.
Este fenómeno no implica una confianza ciega en la tecnología. Más bien lo contrario. Es un reflejo de desconfianza generalizada que busca un objeto concreto. Culpar a la IA permite cerrar el caso rápido, sin entrar en la complejidad incómoda de los sistemas sociales que amplifican errores ordinarios.
El nuevo sesgo que hemos aprendido sin darnos cuenta
Esa predisposición a señalar a la IA no surge en el vacío. Se forma en un ecosistema donde las plataformas ya administran qué parte del comportamiento de los sistemas es visible y cuál permanece opaca. Los modelos conversacionales hablan con seguridad, pero sin mostrar la duda ni el proceso que conduce a una respuesta. Las decisiones se presentan como resultados, no como hipótesis. En ese contexto, atribuirles causalidad se vuelve coherente, aunque sea incorrecto.
El sesgo no consiste en creer todo lo que dice la IA, sino en asumir que está detrás de cualquier anomalía informativa. «Seguro que fue la IA» funciona como una explicación culturalmente aceptable, alineada con una narrativa más amplia sobre automatización, pérdida de control y mediación tecnológica. Es una forma de externalizar la responsabilidad en un sistema que percibimos como poderoso y distante.
Lo inquietante es que este reflejo se consolida justo cuando la IA empieza a operar como entorno, no solo como herramienta. No solo produce respuestas; condiciona las expectativas sobre cómo se produce la información. Incluso su ausencia se interpreta como presencia probable.
Lo que dejamos de mirar cuando culpamos al modelo
El coste práctico de este sesgo es alto. Al centrar la atención en la IA, dejamos de distinguir entre tres elementos básicos: la fuente, el formato y el canal. Quién dijo algo, cómo se presentó y dónde circuló. En el caso del puente, la fuente fueron cuentas concretas; el formato, un vídeo reciclado; el canal, redes sociales diseñadas para maximizar alcance y emoción. Ninguno de esos factores desaparece por invocar a la IA, pero sí quedan eclipsados.
Cuando esas distinciones se diluyen, el debate sobre los riesgos reales de la inteligencia artificial se convierte en ruido moral. Se discute sobre modelos y algoritmos mientras se ignoran los incentivos de las plataformas y los hábitos de consumo que permiten que un contenido fuera de contexto se vuelva creíble. La prevención efectiva exige mirar ahí, no solo señalar al último actor de moda.
Una evolución que dice más de nosotros que de la tecnología
El hecho de que hoy resulte plausible culpar a la IA de un malentendido colectivo dice mucho sobre la velocidad de esta evolución. En pocos años, hemos pasado de considerar estos sistemas como curiosidades técnicas a tratarlos como agentes omnipresentes en la construcción de la realidad. No porque siempre intervengan, sino porque su intervención encaja con el relato dominante.
Tal vez el mayor riesgo no sea que la IA amplifique rumores, sino que amplifique nuestra tendencia a buscar explicaciones simples para fenómenos complejos. Culpar al modelo es cómodo. Investigar el mecanismo es costoso. Entre una cosa y otra se decide qué tipo de debate público estamos dispuestos a sostener.
La pregunta que queda abierta no es si la IA miente, sino qué hacemos nosotros cuando su mera existencia nos parece razón suficiente para creer que algo ocurrió. Ahí empieza otra forma de desinformación, más silenciosa y más difícil de corregir.