El contenido que desaparece

Cuando la IA extrae, imita y obliga a confesar: tres flancos simultáneos contra el profesional de comunicación
En noviembre de 2025, en estas mismas páginas, planteé una hipótesis incómoda: la web había dejado de consultarse para empezar a interpretarse. Los modelos de lenguaje no sustituían la búsqueda, la intermediaban. El usuario dejaba de navegar y empezaba a preguntar. Y lo que obtenía no era un enlace, sino una versión condensada del mundo. Lo llamé el fin del verbo buscar. Describía una mutación que entonces parecía sobre todo cultural: el paso de la búsqueda activa a la interpretación delegada, de la navegación al prompt (instrucción que el usuario da a la IA), de un pacto imperfecto entre humanos y máquinas a una relación en la que la máquina decide qué parte de la realidad merece ser mostrada.
Cuatro meses después, esa hipótesis tiene factura. Los datos de GfK DAM de febrero de 2026 muestran caídas de dos dígitos en los principales medios digitales españoles: El Mundo pierde un 23% de páginas vistas en un solo mes; El Español, un 27%; La Vanguardia acumula un desplome del 50% anual. Los medios pequeños, según datos de Chartbeat, pierden hasta un 60% de su tráfico de búsqueda. Y el dato que convierte la tendencia en estructura: el porcentaje de búsquedas realizadas a través de IA que acaban en una visita a un medio de comunicación es del 0,34%. Menos de una de cada trescientas.
Lo que en noviembre era diagnóstico, en marzo es aritmética. Pero los números, con ser elocuentes, son solo la superficie. Lo que está ocurriendo no es una crisis de audiencias. Es un sistema que opera sobre el profesional de comunicación por tres flancos simultáneos: extrae el valor de su trabajo sin devolver nada, genera contenido que imita al suyo sin haber pasado por ningún filtro, y le obliga legalmente a declarar que usa la misma tecnología que le está vaciando.
Cada uno de estos mecanismos es comprensible por separado. Es su simultaneidad lo que configura un escenario sin precedente.

1. La extracción: valor sin retorno
En octubre de 2025, la European Broadcasting Union (EBU) y la BBC publicaron el mayor estudio realizado hasta la fecha sobre la relación entre asistentes de inteligencia artificial y contenido informativo. El informe News Integrity in AI Assistants analizó las respuestas de los principales modelos —ChatGPT, Claude, Gemini, Grok— frente a noticias reales y encontró que el 45% de esas respuestas contenían problemas significativos. No errores menores ni matices discutibles: atribución incorrecta, fuentes ausentes, contextualización deficiente, editorialización que el texto original no contenía. Y lo hacían de forma consistente en todos los idiomas y territorios analizados.
La palabra clave aquí no es error. Es extracción.
Los modelos de IA no se equivocan al citar porque sean imprecisos. Se equivocan porque su arquitectura no está diseñada para preservar la cadena de origen. Ingieren contenido, lo descomponen en fragmentos estadísticamente útiles y lo reensamblan en respuestas que priorizan la coherencia interna sobre la trazabilidad. La fuente no desaparece por accidente: desaparece porque no es una variable relevante para el sistema.
Francesco Marconi, referencia en la intersección entre medios y tecnología, lo ha cuantificado con una cifra que resume el problema mejor que cualquier análisis: producir una investigación periodística cuesta una media de 211.900 dólares. La IA la resume por dos céntimos. Esa asimetría no es un fallo de mercado que el tiempo corregirá. Es el modelo de negocio. WAN-IFRA, en su análisis de la cadena de valor de 2025, lo califica directamente de parasitismo: los modelos capturan la comprensión esencial del contenido antes de que el usuario tenga motivo para visitar la fuente. No extraen un fragmento: extraen el valor completo y devuelven al productor original una fracción invisible del reconocimiento.
FT Strategies añade otro concepto que describe bien lo que ocurre: el contenido se ha vuelto líquido. Los archivos periodísticos, los análisis corporativos, los informes técnicos se disuelven en los repositorios de datos que alimentan los modelos de IA. Dejan de ser piezas con autor, fecha y contexto para convertirse en materia prima indiferenciada. El valor se redistribuye, pero no hacia quien lo produjo. Se redistribuye hacia quien controla la infraestructura de intermediación.
Y esa infraestructura no se detiene: se consolida. En marzo de 2026, OpenAI anuncia la integración de ChatGPT, Codex y su navegador Atlas en una sola aplicación de escritorio. Google transforma su buscador en un sistema de respuestas sintetizadas donde los diez enlaces azules —el último vestigio de la web como directorio— se sustituyen por párrafos generados que no necesitan que el usuario haga clic en nada. Cada movimiento de consolidación reduce un punto de contacto entre el usuario y la fuente original. La aplicación unificada no es solo un producto: es una infraestructura de intermediación que convierte la visita al origen en un paso innecesario.
En noviembre escribí que habíamos pasado de un modelo en el que el valor estaba en ser rastreado por los bots a otro en el que el valor estaría en ser citado dentro de la respuesta de la IA. Cuatro meses después, los datos del estudio EBU/BBC demuestran que ni siquiera esa economía de la cita funciona, porque la cita no se produce. O se produce mal. O se produce sin atribución. El nuevo modelo no es que te paguen por ser citado. Es que te lean, te resuman y te ignoren.
Lo que observo en el sector es que muchas organizaciones de comunicación aún razonan en términos de tráfico perdido, como si el problema fuera táctico: optimizar para IA, mejorar el posicionamiento, adaptarse al nuevo algoritmo. Pero lo que está en juego no son las visitas. Es el mecanismo por el que producir contenido de calidad generaba retorno (económico, reputacional, de autoridad). Ese mecanismo se ha roto. Y no va a repararse optimizando palabras clave.
Y no se ha roto solo para los medios de comunicación. La pyme industrial que invierte en una web con contenido técnico especializado (manuales de producto, fichas de aplicación, artículos sobre su tecnología) opera bajo la misma lógica, aunque no lo sepa. Su contenido alimenta los modelos que responderán a las preguntas de sus potenciales clientes. Pero la respuesta llegará sin enlace, sin marca, sin atribución. Un distribuidor preguntará a un asistente de IA por las especificaciones de un tipo de material, y la respuesta incluirá datos que proceden de la web de esa empresa sin mencionarla. El mismo vaciado, a otra escala, sin datos de medición para cuantificarlo y sin conciencia del problema hasta que las consultas dejen de llegar.

2. La imitación: lo que parece verdad sin serlo
Si la extracción es el mecanismo económico, la imitación es el mecanismo epistemológico. Y opera en una dirección que la mayoría de los profesionales de comunicación aún no ha dimensionado.
El Reuters Institute, en su informe Journalism, Media, and Technology Trends and Predictions for 2026, publicado en enero, introduce un concepto que merece detenimiento: la burbuja de legitimidad. La idea es que las organizaciones periodísticas operan bajo un supuesto implícito, que su posición como fuentes fiables es estable, mientras dos fuerzas simultáneas erosionan esa posición desde abajo. Por un lado, los modelos de IA generan respuestas con una apariencia de autoridad que no se corresponde con ningún proceso de verificación real. Por otro, los creadores de contenido e influencers construyen audiencias basadas en personalidad y relación directa, sin necesidad de los intermediarios tradicionales. La burbuja es la distancia creciente entre la legitimidad que los medios creen tener y la que efectivamente les reconoce el público.
Solo el 38% de los 280 ejecutivos de medios de 51 países encuestados por Reuters se declara optimista sobre el futuro del sector. La previsión media es una caída del 40% en el tráfico procedente de buscadores en los próximos tres años. Pero el dato más relevante no es cuantitativo: es cualitativo. Lo que se erosiona no es solo el volumen de audiencia; es la capacidad del público para distinguir entre lo verificado y lo generado. Porque los modelos de IA no mienten necesariamente. Hacen algo más sutil: imitan el tono, la estructura y la cadencia de la información verificada sin haber pasado por ninguno de los filtros que la hacían fiable. El resultado tiene forma de periodismo, suena a análisis profesional, se presenta con la confianza de quien sabe de lo que habla. Pero no hay nadie detrás que haya comprobado nada.
El caso De Telegraaf ilustra este riesgo con una precisión incómoda. El 5 de marzo de 2026, el mayor diario holandés publicó un artículo sobre supuestos vuelos privados de evacuación desde Dubái. El reportaje incluía una entrevista con la supuesta organizadora de los vuelos, una mujer llamada Tamara Harema, y su fotografía. El 12 de marzo, Bellingcat demostró que la fotografía estaba generada por inteligencia artificial: artefactos en las joyas, inconsistencias en el fondo del Burj Khalifa, distorsiones en la piel. Los vuelos no aparecían en los registros de Flightradar24. La persona no existía. La fuente que había proporcionado la historia, un abogado en Dubái, no respondió a las verificaciones posteriores. De Telegraaf eliminó la imagen cuatro días después y añadió una nota reconociendo que no cumplía sus estándares periodísticos. Mantuvo la entrevista, pero con reservas.
Lo relevante del caso no es la sofisticación del engaño. Es su banalidad. No fue una manipulación audiovisual hiperrealista diseñada para alterar una elección. No fue una operación de desinformación coordinada. Fue una fuente no verificada adecuadamente que llegó por los canales habituales de una redacción profesional. Una historia con gancho (vuelos de evacuación privados, precios concretos, una protagonista con nombre y rostro) que pasó los filtros editoriales de uno de los diarios más importantes de los Países Bajos. Y la fotografía generada por IA no activó ninguna alarma interna.
Esto conecta con un dato estructural que explica por qué el caso De Telegraaf no es una anécdota sino un síntoma. Los detectores de contenido generado por IA no funcionan en condiciones reales. GPTZero, uno de los más utilizados, alcanza un 99% de precisión con texto puramente artificial en condiciones de laboratorio. Pero cuando el contenido es mixto (parcialmente humano, parcialmente generado, parafraseado o editado) su precisión cae al 26%. Turnitin, referencia en el ámbito académico, se queda en un 61%. Los humanos solos, sin herramientas, identifican contenido generado por IA un 53% de las veces. Apenas mejor que lanzar una moneda.
Las redacciones lo saben. El informe de la EBU de 2025 sobre IA en redacciones documenta que la mayoría desconfía de los detectores automáticos precisamente por su inconsistencia, y prefiere la revisión humana. Pero la revisión humana se enfrenta a un problema de escala que no tiene solución aritmética.
Distintas estimaciones sitúan entre el 57% y el 74% del nuevo contenido publicado en la web como generado total o parcialmente por inteligencia artificial. Los equipos de verificación más activos procesan alrededor de 619 afirmaciones verificables al año. La desinformación, según los estudios recopilados por EDMO y el Reuters Institute, se propaga seis veces más rápido que las correcciones. Y los propios asistentes de IA propagan información inexacta en un 35% de los casos, frente al 18% anterior al despliegue masivo de modelos generativos.
La desproporción es tan grande que no admite solución incremental. No se trata de mejorar los detectores un porcentaje ni de contratar más verificadores. El volumen de contenido con apariencia legítima ha superado estructuralmente la capacidad de cualquier sistema humano o técnico para filtrarlo. Para una redacción, eso significa que el entorno informativo en el que opera se ha contaminado de forma que no puede revertir por sí sola. Para un departamento de comunicación, significa algo igualmente grave: el contenido que produce con criterio, con verificación, con inversión profesional, compite en igualdad visual y de tono con contenido que no ha pasado por ninguno de esos filtros. Y su público no tiene forma de saber cuál es cuál.
En noviembre escribí que la pregunta no era si los modelos mentían, sino si aún sabríamos reconocer cuándo lo hacen. Cuatro meses después, la respuesta es más clara de lo que me gustaría: cada vez menos.

3. La confesión: obligado a declarar lo que el mercado penaliza
El profesional de comunicación que ha entendido los dos mecanismos anteriores, la extracción y la imitación, se enfrenta ahora a un tercero que completa el cerco. Y este tiene fecha.
El artículo 50 del Reglamento Europeo de Inteligencia Artificial establece que, a partir del 2 de agosto de 2026, toda organización que utilice sistemas de IA generativa para producir contenido deberá etiquetarlo de forma clara y visible. La obligación opera en dos niveles. Los proveedores de modelos generativos (OpenAI, Anthropic, Google, Mistral y cualquier otro) deben incluir marcado técnico detectable por máquinas en todo lo que sus sistemas produzcan: marcas de agua digitales, metadatos, identificadores embebidos. Los que desplieguen esos modelos, es decir, cualquier empresa, redacción o departamento de comunicación que los use para producir texto, imagen, audio o vídeo, deben declararlo al público. Las excepciones son limitadas: usos artísticos, satíricos o de detección criminal, con requisitos específicos en cada caso. Las sanciones por incumplimiento pueden alcanzar el 6% de los ingresos globales de la organización.
La fecha no es lejana. Son menos de cinco meses. Y el código de buenas prácticas que desarrolla las obligaciones concretas de etiquetado estaba en fase de consulta pública hasta marzo de 2026, con versión final prevista para junio.
El problema es que la obligación legal de transparencia choca frontalmente con lo que indican los estudios de percepción del consumidor.
Un estudio publicado en el British Food Journal en 2025, titulado Tainted by technology? (¿Contaminado por la tecnología?), demuestra que etiquetar un producto como “generado por IA” reduce significativamente la intención de compra. No por prejuicio irracional, sino por un mecanismo psicológico documentado: la etiqueta disminuye el esfuerzo percibido del creador y, con él, la autenticidad percibida del resultado. Lo que el consumidor interpreta no es “producido con eficiencia”, sino “producido sin esfuerzo”. Y en un mercado donde la autenticidad es valor, esa percepción tiene coste directo.
El Nuremberg Institute for Market Decisions (NIM), en su estudio Transparency without Trust (Transparencia sin confianza), llegó a conclusiones convergentes: anuncios idénticos en contenido y calidad visual generan actitudes más negativas y menor disposición a la compra cuando se etiquetan como producidos por IA. El efecto es pequeño en magnitud absoluta pero consistente en todas las categorías de producto analizadas. Otros estudios de 2025, publicados en Economic Policy y en el Journal of Information Systems Engineering and Management, confirman el patrón: revelar el uso de IA reduce la confianza, la percepción de autenticidad y la intención de compra, especialmente en productos donde el comprador percibe riesgo alto.
La reacción del consumidor no es caprichosa. Refleja algo que los profesionales de comunicación conocemos bien: la confianza se construye sobre la percepción de que hay trabajo humano detrás. Cuando la burbuja de legitimidad ya ha erosionado la confianza general en el contenido digital, la etiqueta “generado por IA” funciona como confirmación de un recelo que, además, no es del todo infundado. El consumidor ha visto suficiente contenido mediocre generado por IA como para que la asociación entre IA y baja calidad no sea gratuita.
La situación para el profesional de comunicación es un callejón con tres paredes. No declarar el uso de IA será ilegal a partir de agosto de 2026. Declararlo puede penalizar la percepción de la marca, del medio o de la organización. La opción de no usar IA es, para la mayoría, cada vez menos viable operativamente: los flujos de trabajo ya la incorporan, la competencia la usa y los plazos de producción la presuponen.
Lo que observo en el sector es que las organizaciones que están abordando este dilema con mayor solidez son las que han abandonado los dos extremos. Ni el discurso evangelista ”la IA revoluciona nuestra forma de trabajar, somos innovadores”, ni la posición defensiva ”tranquilos, aquí todo lo hacen personas”. Lo que empieza a funcionar es algo que podríamos llamar narrativa de gobernanza visible: comunicar explícitamente qué procesos usan IA, cuáles no y en qué punto del proceso interviene el criterio humano. El concepto de supervisión humana integrada en el proceso (lo que técnicamente se denomina human-in-the-loop) nació en el ámbito de la ingeniería de sistemas, pero empieza a funcionar como elemento de posicionamiento comunicativo. No es un eslogan. Es una decisión de diseño organizacional que necesita ser comunicada con la misma precisión con la que se implementa.
La encuesta de RWS a 5.000 consumidores globales en 2025 apunta en esa dirección: el 80% exige que se identifique el uso de IA en los productos y contenidos que consume. Pero la transparencia bien ejecutada, con detalle sobre el cómo, el dónde y el para qué, aumenta la confianza en un 62%. El dato sugiere que el problema no es confesar. Es confesar sin haber pensado antes qué se quiere decir, cómo se quiere decir y qué posición se quiere ocupar en la conversación.
La diferencia entre una organización que dice “usamos IA” y una que dice “usamos IA para estos procesos, el criterio editorial lo aplica nuestro equipo en estos otros, y no usamos IA para esto” es la diferencia entre una declaración defensiva y una estrategia de comunicación. La primera genera desconfianza. La segunda, si es verificable, puede convertirse en diferencial competitivo.

4. El triple vaciado
Conviene ver los tres mecanismos juntos, porque es así como operan en la realidad del profesional de comunicación. No llegan secuencialmente. No se presentan como tres problemas distintos que se puedan abordar en tres reuniones diferentes. Operan al mismo tiempo, sobre la misma persona, en el mismo entorno.
La extracción vacía el retorno económico: el contenido se produce, se ingiere y se redistribuye sin que el autor reciba tráfico, atribución ni compensación. La cadena que convertía la producción de contenido en valor medible (visitas, autoridad, ingresos publicitarios, contactos comerciales) se interrumpe en el punto exacto en que la IA ofrece la respuesta sin necesidad de que el usuario complete el recorrido hasta la fuente.
La imitación vacía la diferenciación: el contenido verificado, producido con criterio y con inversión profesional, compite en el mismo espacio visual y de tono que el contenido generado sin filtro. Para el lector, para el cliente, y para el ciudadano, ambos tienen el mismo aspecto. La burbuja de legitimidad no es una metáfora: es la descripción precisa de un entorno donde la forma ha dejado de ser indicador fiable del fondo.
La confesión vacía la narrativa: la obligación de declarar el uso de IA, en un entorno donde esa declaración penaliza la percepción, obliga al profesional a explicar algo que el mercado aún no está preparado para escuchar sin desconfianza. Y le obliga a hacerlo en menos de cinco meses, con o sin estrategia.
Cada mecanismo es manejable por separado. Los tres simultáneos configuran algo que merece ser nombrado: un sistema que extrae tu trabajo, lo imita sin acreditarte y te obliga a declarar que usas la misma herramienta que te está vaciando.
En estas páginas ya analicé cómo las organizaciones de comunicación descubrían que su verdadero activo no era el contenido sino el criterio que lo producía. Esa tesis sigue vigente, pero ahora necesita ampliarse. No basta con tener criterio. Hay que tener una estrategia para proteger su valor en un ecosistema que lo extrae por defecto. Una capacidad para distinguir lo verificado de lo imitado en un entorno que los iguala visualmente. Y una narrativa de transparencia diseñada con la misma rigurosidad con la que se diseña cualquier otro posicionamiento, antes de que la ley la imponga, no después.
Ninguna de estas tres necesidades se resuelve con herramientas. Se resuelven con decisiones. Decisiones que, para la mayoría de los departamentos de comunicación, aún no están en la agenda.
¿Puede un profesional de comunicación operar con criterio en un sistema diseñado para funcionar sin él? Quizás estamos en el punto en que proteger el valor del trabajo humano requiere algo más que adaptarse , requiere decidir explícitamente qué no se cede.
FUENTES CITADAS
- EBU / BBC — News Integrity in AI Assistants (octubre 2025) — Informe: https://www.bbc.co.uk/mediacentre/documents/news-integrity-in-ai-assistants-report.pdf — Nota de prensa EBU: https://www.ebu.ch/news/2025/10/ai-s-systemic-distortion-of-news-is-consistent-across-languages-and-territories-international-study-by-public-service-broadcaste — Cobertura Journalism.co.uk: https://www.journalism.co.uk/nearly-half-of-ai-generated-answers-contain-an-error-ebu-bbc-report/
- GfK DAM — Datos de audiencia digital España, febrero 2026 — Dircomfidencial: https://dircomfidencial.com/medios/desplome-del-trafico-en-los-principales-medios-espanoles-tras-la-irrupcion-de-la-ia-en-un-febrero-dramatico-20260319-0405/ — ExtraDigital: https://www.extradigital.es/la-ia-ya-pasa-factura-a-los-medios-y-hunde-el-trafico-digital-en-espana-nac/ — Red de Periodistas: https://www.reddeperiodistas.com/el-mundo-el-espanol-y-el-pais-mantienen-el-podio-de-gfk-dam-como-periodicos-mas-leidos-de-espana/
- Chartbeat — Pérdida de tráfico en medios pequeños — https://almcorp.com/blog/search-traffic-decline-small-publishers-chartbeat-data/
- CTR de búsquedas IA: 0,34% — MarketingNews.es: https://www.marketingnews.es/investigacion/noticia/1192637031605/solo-un-034-de-las-busquedas-realizadas-en-ia-termina-en-una-visita-a-un-medio-de-comunicacion.1.html
- Francesco Marconi — Coste de investigación periodística vs. resumen IA — LinkedIn: https://www.linkedin.com/posts/francescopmarconi_it-costs-211900-to-produce-a-news-investigation-activity-7429517517829840896-7KV0
- WAN-IFRA — Cadena de valor IA y medios (2025) — https://wan-ifra.org/2025/02/fluid-news-media-how-ai-is-reshaping-editorial-formats/
- FT Strategies — Predicciones para news y publishing (2025) — https://www.ftstrategies.com/en-gb/insights/our-2025-predictions-for-news-publishing-and-beyond
- OpenAI — Anuncio aplicación de escritorio unificada (marzo 2026) — CNBC: https://www.cnbc.com/2026/03/19/openai-desktop-super-app-chatgpt-browser-codex.html — WSJ: https://www.wsj.com/tech/openai-plans-launch-of-desktop-superapp-to-refocus-simplify-user-experience-9e19931d — The Decoder: https://the-decoder.com/openai-plans-to-merge-chatgpt-codex-and-atlas-browser-into-a-single-desktop-superapp/
- Reuters Institute — Journalism, Media, and Technology Trends and Predictions for 2026 (enero 2026) — http://reutersinstitute.politics.ox.ac.uk/es/periodismo-medios-y-tecnologia-tendencias-y-predicciones-para-2026
- Bellingcat — Caso De Telegraaf (12 marzo 2026) — https://www.bellingcat.com/news/2026/03/12/ai-used-to-promote-non-existent-evacuation-flights-from-the-middle-east/
- Precisión de detectores de contenido IA — LA Times: https://www.latimes.com/b2b/business-partnerships/story/how-accurate-are-ai-detectors-in-2025 — Automateed: https://www.automateed.com/ai-content-detection-tools-2025
- EDMO — IA y verificación de hechos — https://edmo.eu/blog/part-of-the-problem-and-part-of-the-solution-the-paradox-of-ai-in-fact-checking/
- British Food Journal — Tainted by technology? (2025) — https://www.emerald.com/bfj/article/doi/10.1108/BFJ-08-2025-1101/1332772/Tainted-by-technology-The-effect-of-AI-generated
- Nuremberg Institute for Market Decisions — Transparency without Trust (2025) — https://www.nim.org/en/publications/detail/transparency-without-trust
- EU AI Act — Artículo 50, obligaciones de transparencia — Kirkland & Ellis: https://www.kirkland.com/publications/kirkland-alert/2026/02/illuminating-ai-the-eus-first-draft-code-of-practice-on-transparency-for-ai — ECIJA: https://www.ecija.com/actualidad-insights/las-empresas-deberan-etiquetar-los-contenidos-generados-por-ia-a-partir-de-agosto-de-2026/
- RWS — Encuesta global transparencia IA (2025) — https://www.rws.com/about/news/2025/unlocked-2025-riding-the-ai-shockwave/
- Conexión Pública — El fin del verbo buscar (noviembre 2025) — https://conexionpublica.es/el-fin-del-verbo-buscar/
- Conexión Pública — La organización que no sabe lo que sabe (marzo 2026) — https://conexionpublica.es/la-organizacion-que-no-sabe-lo-que-sabe/