| |

El sistema que aprendió a leer

En 2025, el tráfico que Google envió a los publishers de todo el mundo cayó un tercio. No fue una caída gradual ni una corrección menor: según los datos de Chartbeat recogidos por Press Gazette, un tercio del volumen de visitas que los medios recibían desde el buscador desapareció en el plazo de un año. El Reuters Institute, en su informe de tendencias para 2026 del que ya hemos hablado aquí, añade que los directivos de medios encuestados (280 altos cargos de redacciones de 51 países) esperan una caída adicional del 43% en el tráfico procedente de buscadores durante los próximos tres años.

Son cifras que merecen leerse despacio. No como señal de apocalipsis del periodismo, sino como indicador de que algo estructural ha cambiado en la lógica de distribución de contenidos. Lo que ha cambiado no es el volumen de búsquedas. Es el criterio por el que el sistema decide qué contenido merece llegar al lector.

Durante aproximadamente quince años, ese criterio fue la atención. Lo que conseguía que alguien clicara ganaba distribución. Los algoritmos de búsqueda y de redes sociales aprendieron a premiar lo que generaba tráfico, y los productores de contenido (medios, departamentos de comunicación, gabinetes) aprendieron a producir para ese criterio. No como decisión ética sino como adaptación racional a las reglas del sistema en el que operaban.

La inteligencia artificial ha introducido un criterio diferente. Y la diferencia importa.

Lo que el nuevo sistema lee

Los AI Overviews de Google, esos resúmenes generados por IA que aparecen en la parte superior de los resultados de búsqueda antes de cualquier enlace, no funcionan como un buscador tradicional. Un buscador tradicional lista páginas y deja que el usuario elija. Un sistema de respuesta generativa extrae, sintetiza y presenta. El clic al medio original se vuelve opcional: si la respuesta ya está en la pantalla, muchos usuarios no necesitan ir más lejos.

El primer estudio sobre el impacto de los AI Overviews en medios españoles, publicado por Clara Soteras y MJ Cachón en septiembre de 2025 con metodología propia sobre 2.699 términos de búsqueda, encontró que los resúmenes generados por IA aparecían en el 29,8% de las búsquedas analizadas. La activación era mayor en contenido de consulta recurrente e informativo genérico, exactamente el tipo de contenido que más producen los medios dependientes de volumen, y menor en noticias de última hora. El sistema no elimina el periodismo de ruptura, pero erosiona sistemáticamente el contenido que responde preguntas que cualquiera podría responder.

¿Qué fuentes selecciona el sistema para construir esas respuestas? El análisis de dominios más citados en AI Overviews durante 2025 muestra una concentración notable: Wikipedia, YouTube, propiedades de Google y Reddit dominan el reparto. Las propiedades controladas directamente por Google representan alrededor del 23% de las menciones en los conjuntos de datos analizados. Los grandes medios con autoridad editorial consolidada aparecen, pero los sitios optimizados para volumen de clics, significativamente menos.

Los criterios que los análisis técnicos identifican como determinantes para aparecer en las respuestas generadas por IA son consistentes entre sí: experiencia demostrable, autoría transparente con credenciales verificables, densidad de datos, estructura que permita extracción limpia de información, frescura y atribución explícita de fuentes. En términos más directos: el sistema no premia el titular que hace clicar. Premia el párrafo que responde.

Esto no es una decisión ideológica de los ingenieros de Google. Es una consecuencia del problema técnico que los sistemas de respuesta generativa intentan resolver. Un chatbot que da respuestas necesita fuentes que den respuestas. El contenido diseñado para generar curiosidad, para dejar la respuesta fuera del titular y dentro del clic, es estructuralmente menos útil para un sistema que necesita extraer y sintetizar. La trampa no es moral. Es de diseño.

John Burn-Murdoch publicó en el Financial Times en marzo de 2026 un análisis sobre el comportamiento político de los modelos de lenguaje que apunta en la misma dirección desde otro ángulo. Su argumento es que los LLMs son “tecnocratizadores”: tienden hacia posiciones moderadas y fuentes expertas, lo contrario de lo que hacen las redes sociales, que amplifican lo extremo y lo emocional. Los mecanismos son distintos, Burn-Murdoch habla de opinión pública, no de tráfico, pero el patrón de fondo es el mismo. Los sistemas de IA están diseñados para servir a usuarios que pagan por herramientas precisas, no para maximizar tiempo de pantalla. Eso cambia qué tipo de contenido el sistema considera valioso.

Los modelos más expuestos

El Daily Mail es el caso que mejor ilustra la tensión porque la contradicción no hay que inferirla: está declarada por la propia organización.

DMGT, la empresa propietaria, reportó en sus resultados oficiales para el año hasta septiembre de 2025 una caída del 14% en su audiencia digital en el Reino Unido y un descenso del 15% en sus ingresos publicitarios digitales. La causa identificada en el propio informe: el tráfico web había sido afectado negativamente por los AI Overviews de Google porque los usuarios hacían menos clic hacia los sitios de noticias. Al mismo tiempo, la responsable de SEO del Daily Mail declaró públicamente que las tasas de clics caían entre un 80 y un 90% cuando aparecía un AI Overview en los resultados de búsqueda, cifra que ella misma había situado en el 56% unos meses antes.

El modelo del Daily Mail está bien documentado: alto volumen de producción, optimización agresiva para búsqueda y para Google Discover, titulares diseñados para generar tráfico. Ese modelo funcionó durante años precisamente porque los algoritmos de distribución premiaban la atención. Lo que los datos de 2025 muestran es que el mismo sistema que lo hizo crecer ha cambiado de criterio, y el modelo que lo hizo grande es ahora el que lo deja más expuesto.

HuffPost describe el mismo patrón desde una construcción diferente. No fue un caso de SEO agresivo puro: fue un modelo basado en titulares rápidos, distribución social y contenido orientado a la viralidad. El resultado en términos de tráfico es equivalente. Según datos de Similarweb recogidos por NPR y otros medios en 2025, el tráfico orgánico de búsqueda de HuffPost cayó más de la mitad en un período de tres años. El Washington Post, en el mismo análisis, mostraba una caída de magnitud similar. Dos organizaciones con historiales editoriales y modelos de negocio distintos, convergiendo en el mismo problema porque compartían la misma dependencia del tráfico de referencia generado por contenido diseñado para capturar atención.

BuzzFeed es el tercer caso y el más instructivo, aunque por razones diferentes. En 2023, ante el primer impacto visible de la IA en su modelo de negocio, Jonah Peretti anunció que la compañía usaría IA para producir contenido a mayor escala. La lógica era directa: si el problema es de volumen y coste, la IA puede producir más por menos. En 2025, BuzzFeed reportó una pérdida neta de 57,3 millones de dólares y emitió una advertencia formal de “duda sustancial” sobre su capacidad para continuar operando. Los quizzes y artículos generados con IA no produjeron el rebote esperado.

Lo que el caso BuzzFeed añade al argumento es relevante: la respuesta instintiva de escalar con IA el mismo tipo de contenido que el sistema ya estaba dejando de premiar aceleró el problema en lugar de resolverlo. Producir más rápido y más barato el tipo de contenido que los sistemas de respuesta generativa no necesitan citar no es una estrategia de adaptación. Es optimizar para un criterio que ya no opera.

El contexto español en marzo de 2026 muestra que el patrón no es anglosajón. The Objective publicó ese mes que el cambio en el algoritmo de Google Discover “provoca un terremoto en la prensa del clickbait“. El Confidencial tituló que “la IA va a matar el clickbait y cunde el pánico entre los medios”. Dircomfidencial documentó caídas de tráfico en los principales medios españoles describiendo un febrero “dramático”. Los medios españoles más dependientes de Discover y de SEO de volumen están en la misma posición que el Daily Mail o HuffPost: con un modelo construido sobre un criterio de distribución que el sistema está modificando.

En ese contexto, la reacción de algunos directivos de medios españoles ante los datos —el argumento de que febrero tiene menos días, que son datos puntuales, que quien señala las caídas no sabe leer un gráfico— no es una particularidad española. Es la respuesta habitual de cualquier organización ante datos que cuestionan las bases del modelo que la sostiene. El problema no es la reacción: es que los datos no esperan.

La consecuencia para el profesional de comunicación

Hasta aquí el argumento ha circulado por redacciones y publishers. Pero el cambio de criterio de selección no respeta esa frontera.

Un departamento de comunicación que produce notas de prensa diseñadas como titulares gancho, content corporativo sin densidad propia, informes que parecen sólidos pero no contienen datos originales, o comunicados que repiten mensajes de campaña en lugar de responder preguntas, está operando bajo la misma lógica que los medios más expuestos. El criterio que el sistema aplica para decidir qué citar no distingue entre periodismo y comunicación corporativa: distingue entre contenido que responde y contenido que atrae.

Esto tiene una implicación concreta que vale la pena formular con precisión. Durante años, la distinción entre “buen contenido” y “contenido que funciona” era real pero tolerable: se podía producir contenido de calidad y contenido de volumen en paralelo, cada uno con su función. Lo que el nuevo criterio de selección hace es colapsar esa distinción en el punto donde más importa: la distribución. Si el primer filtro que decide si un contenido circula es un sistema que selecciona por autoridad demostrable, densidad de los datos y estructura extraíble, el contenido de volumen sin sustrato no solo no aporta: ocupa espacio en la percepción de la fuente que lo produce.

El material sobre posicionamiento experto en entornos B2B apunta en la misma dirección desde el lado positivo. Los análisis de 2025-2026 sobre qué contenido corporativo aparece citado en sistemas de IA coinciden en que la investigación original, la autoría experta verificable y la estructura orientada a responder preguntas específicas son los factores más determinantes. No es que la IA favorezca a las grandes marcas por ser grandes: favorece el contenido que puede usar para responder. Una pyme con un informe sectorial propio, bien estructurado y con datos originales tiene más probabilidades de aparecer citada que una multinacional con un white paper de marketing reciclado.

Lo que esto plantea a los departamentos de comunicación y gabinetes no es una pregunta táctica sobre formatos o plataformas. Es una pregunta más anterior: ¿para qué criterio de selección está produciendo contenido esta organización?

Lo que queda abierto

Conviene no cerrar este argumento con más certeza de la que tiene.

El nuevo criterio de selección (autoridad, densidad, estructura) no es neutral. Está definido por Google, OpenAI y los sistemas que dominan la distribución de información, y puede modificarse. Lo que hoy premia la experiencia demostrable mañana puede premiar otro conjunto de señales. La historia del SEO es precisamente la historia de organizaciones que optimizaron para criterios que cambiaron antes de que terminaran de adaptarse.

Lo que sí parece más estable que un criterio concreto es el desplazamiento de quién hace la primera selección. Durante la era de las redes sociales, el primer filtro era humano y emocional: ¿esto me hace querer compartirlo? Durante la era de la búsqueda clásica, el primer filtro era algorítmico pero orientado al clic: ¿esto hace que alguien entre? El primer filtro que opera ahora en una proporción creciente de búsquedas es un sistema que necesita extraer y sintetizar: ¿esto me sirve para responder?

Esa pregunta “¿esto me sirve para responder?” es estructuralmente distinta de las anteriores. Y produce un tipo de contenido estructuralmente distinto.

La pregunta que queda es si las organizaciones que producen contenido (medios, departamentos de comunicación, gabinetes) van a reconstruir sus criterios de producción en torno a esa lógica, o si van a seguir optimizando para la atención humana mientras el sistema que distribuye su contenido usa criterios diferentes. No es una pregunta retórica. Es la decisión operativa que define qué tipo de contenido tiene sentido producir en este momento.

FUENTES CITADAS

— Chartbeat / Press Gazette — Global publisher Google traffic dropped by a third in 2025 https://pressgazette.co.uk/media-audience-and-business-data/google-traffic-down-2025-trends-report-2026/

— Reuters Institute — Trends and Predictions 2026 https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2026-01/Newman%20-%20Trends%20and%20Predictions%202026%20FINAL.pdf

— Soteras, Clara y Cachón, MJ — Primer estudio del impacto de las AI Overviews en los medios españoles https://clarasoteras.com/blog/primer-estudio-impacto-ai-overviews-medios-espanoles-clara-soteras-mj-cachon/

— DMGT — Resultados oficiales https://pressgazette.co.uk/media_business/dmgt-reports-revenue-dip-as-google-changes-hit-traffic-for-mail-publisher/

— Digiday — Daily Mail says AI Overviews have killed click-throughs https://www.linkedin.com/posts/digiday_daily-mail-says-ai-overviews-have-killed-activity-7393731682434002944-v2Vt

— NPR — Will Google’s AI Overviews kill news sites as we know them? https://www.npr.org/2025/07/31/nx-s1-5484118/google-ai-overview-online-publishers

— Futurism — BuzzFeed going concern https://futurism.com/artificial-intelligence/buzzfeed-disastrous-earnings-ai

— Aftermath — BuzzFeed https://aftermath.site/buzzfeed-ai-bankrupt/

— The Objective — Google Discover y clickbait https://theobjective.com/medios/2026-03-21/algoritmo-google-discover-prensa-clickbait/

— El Confidencial — La IA va a matar el clickbait https://www.elconfidencial.com/comunicacion/2026-03-25/inteligencia-artificial-clickbait-panico-medios_4326059/

— Dircomfidencial — Desplome del tráfico https://dircomfidencial.com/medios/desplome-del-trafico-en-los-principales-medios-espanoles-tras-la-irrupcion-de-la-ia-en-un-febrero-dramatico-20260319-0405/

— Burn-Murdoch, John — Social media is populist and polarising; AI may be the opposite, Financial Times (marzo 2026)

— Conexión Pública — Internet enferma, IA como antídoto (septiembre 2025) https://conexionpublica.es/internet-enferma-ia-como-antidoto/

— Conexión Pública — El fin del verbo buscar (noviembre 2025) https://conexionpublica.es/el-fin-del-verbo-buscar/

— Conexión Pública — El contenido que desaparece (marzo 2026) https://conexionpublica.es/el-contenido-que-desaparece/

Publicaciones Similares