| |

La organización que no sabe lo que sabe

Hay un momento concreto en el que muchas organizaciones descubren que tienen un problema que no sabían que tenían. No ocurre cuando contratan a alguien nuevo, ni cuando cambian de estrategia, ni cuando llega una crisis. Ocurre cuando intentan implementar inteligencia artificial en su área de comunicación y se dan cuenta de que no pueden responder a una pregunta aparentemente sencilla: ¿cuál es nuestro criterio editorial?

No el manual de estilo. No las plantillas de comunicado de prensa. El criterio. El conjunto de decisiones tácitas sobre qué merece ser comunicado, cómo, en qué tono, con qué nivel de detalle, ante qué audiencia, y qué no merece ser comunicado bajo ninguna circunstancia. Ese criterio existe en casi todas las organizaciones. Pero existe distribuido en las personas, sedimentado en años de práctica, invisible como infraestructura hasta que algo lo necesita explícito.

La IA lo necesita explícito.

El activo que nadie había nombrado

Durante décadas, los departamentos de comunicación han medido su capacidad en términos de producción: volumen de contenido, velocidad de respuesta, cobertura de canales, número de impactos. Era una métrica comprensible porque la producción era visible y el criterio no. Un comunicado de prensa se puede contar. Una decisión sobre qué no decir en ese comunicado, y por qué, no aparece en ningún informe.

Esa invisibilidad del criterio ha tenido consecuencias prácticas que en la consultoría de comunicación se observan con regularidad. Hay organizaciones que no distinguen entre comunicar y hablar: creen que la comunicación institucional/corporativa es cuestión de acceso, de tener el teléfono del periodista correcto, de aparecer cuando se les llama. El criterio sobre cuándo no aparecer, sobre qué conversación no tener, sobre qué historia no alimentar, no forma parte de su modelo mental. Ese criterio existe en algún lugar de la organización, pero no está articulado, y por eso es vulnerable: puede ser ignorado por un directivo con prisa, puede evaporarse cuando cambia la persona que lo sostenía, puede contradecirse en público sin que nadie lo haya decidido conscientemente.

Hay otras organizaciones donde el criterio existe pero está protegido de una forma peculiar: nadie lo cuestiona porque nadie lo nombra. Funciona como cultura tácita, como “aquí las cosas se hacen así”, y esa opacidad lo hace frágil de una manera diferente. No se puede enseñar, no se puede transferir, no se puede defender cuando alguien de fuera llega con una lógica distinta.

Lo que la implementación de IA ha hecho es convertir este problema latente en urgente. Cuando una redacción intenta implementar un sistema de generación de contenido, o cuando un departamento de comunicación corporativa despliega un agente que produce texto en nombre de la organización, la primera pregunta que el sistema hace (implícitamente, a través de sus fallos) es: ¿qué criterio debo aplicar? Y si la organización no tiene la respuesta articulada, el sistema improvisa. Y la improvisación de un sistema de IA a escala no es un error puntual. Es una política.

El dato del Global Alliance Report on AI and Communications de 2025 ilustra la dimensión del problema con precisión incómoda: el 57,5% de los equipos de comunicación corporativa no tiene ningún rol de liderazgo en las actividades de IA de sus organizaciones. El 46,8% no tiene ningún rol en el uso ético de IA. El 58,6% no participa en la creación de guías de IA responsable. Son los equipos que más necesitan un criterio articulado para usar IA con responsabilidad, y son los que menos participan en definirlo. La paradoja no es accidental. Es la consecuencia lógica de haber construido durante años una profesión cuyo activo central nunca fue nombrado como tal.

Cuando el criterio falla en público

El caso más revelador de 2025 no fue un fallo técnico espectacular. Fue una declaración de posición institucional que pasó casi desapercibida fuera del sector periodístico.

Politico desplegó dos herramientas de IA en su redacción —LETO para resúmenes de eventos en vivo, y Report Builder para informes de política— sin revisión humana y sin notificar al sindicato editorial. Report Builder generó informes con citas reales de periodistas del medio pero con errores flagrantes e interpretaciones falsas que no habrían superado ningún estándar editorial básico. Hasta ahí, un fallo conocido y replicable en cualquier redacción que implemente IA sin criterio previo. Lo que convierte el caso en algo cualitativamente distinto es la respuesta del subdirector Joe Schatz: argumentó que, como la herramienta fue construida por ingenieros y no por la redacción, no debía cumplir los estándares editoriales del medio.

La lógica es perfectamente coherente si se acepta la premisa: el criterio editorial es una propiedad de la redacción, no de la organización. Si la herramienta la construyen los técnicos, el criterio editorial no aplica. El sindicato PEN Guild llevó el caso a arbitraje en julio de 2025 precisamente para impugnar esa premisa. El fallo, cuando llegue, podría sentar jurisprudencia sobre si el contenido generado por IA dentro de un medio está sujeto a sus normas editoriales. Pero el debate jurídico es secundario. Lo que revela el caso es que Politico no tenía un criterio editorial que fuese de la organización, independiente de quién construyese la herramienta. Tenía criterios de redacción y criterios de ingeniería, y nadie había decidido cuál prevalecía cuando ambos convergían en el mismo output.

No es un caso aislado en el sector. La BBC tuvo que actualizar sus directrices editoriales en 2025 con un capítulo específico sobre IA, y el proceso reveló una tensión que cualquier redacción reconocería: los principios de imparcialidad y rigor que existían en el documento original no podían trasladarse a los sistemas de IA sin ser descompuestos en reglas operativas mucho más específicas. Una norma como “ser imparcial” es insuficiente como instrucción para un sistema. La BBC tuvo que descomponerla en restricciones de fuentes, protocolos de revisión humana, criterios de etiquetado, formatos de presentación. Ese proceso de descomposición es, exactamente, hacer explícito lo que antes era tácito.

Associated Press lo había entendido antes que nadie. Fue la primera organización periodística global en formalizar sus estándares de IA, y su punto de partida no fue tecnológico: fue volver a sus tres valores fundacionales —precisión, imparcialidad, velocidad— y traducirlos en reglas operativas para sistemas automatizados. El aprendizaje que documentaron es directo: el modelo no puede inferir lo que la propia organización no ha articulado.

El desplazamiento terminológico que se está produciendo en el sector no es cosmético. Las organizaciones han pasado de hablar de brand guidelines (guías de marca: documentos que describen el tono, el estilo y los valores comunicativos) a hablar de brand guardrails (límites operativos de marca: restricciones que definen lo que el sistema no puede generar bajo ninguna circunstancia). La diferencia estructural es precisa: las guías de marca describen cómo se escribe; los límites operativos definen qué no puede generarse. Ambos son necesarios. Pero los límites operativos deben existir antes del despliegue, no construirse reactivamente tras la crisis. Y construirlos exige saber primero qué se está protegiendo, lo que devuelve al mismo punto de partida: el criterio tiene que estar articulado antes de que el sistema lo necesite.

La Thomson Reuters Foundation lo establece como secuencia en su guía práctica de 2025: antes de desplegar ninguna herramienta de IA, la redacción o el departamento de comunicación debe revisar sus políticas editoriales existentes como fundamento. Si no existen o son vagas, hay que crearlas. Solo entonces se pueden trasladar a instrucciones de sistema. El manual de estilo, declarado muerto en la era digital, reaparece como requisito técnico previo. No porque la tecnología lo exija en ese formato, sino porque la tecnología ha hecho visible que sin él no hay criterio que transferir.

El conocimiento que no se puede decir

Hay una distinción que el filósofo Michael Polanyi formuló con precisión hace más de medio siglo y que la investigación sobre inteligencia artificial y trabajo ha recuperado con urgencia en 2025: la diferencia entre conocimiento codificable y conocimiento tácito.

El conocimiento codificable es el que puede convertirse en reglas, procedimientos, datos, instrucciones. Es el que los sistemas de IA procesan con eficiencia creciente. El conocimiento tácito es diferente. Es el juicio contextual, la lectura del entorno, la intuición sobre qué importa en esta situación concreta con esta audiencia concreta en este momento concreto. Polanyi lo formuló así: sabemos más de lo que podemos decir. Y ese excedente de saber sobre el decir es exactamente lo que hace que un profesional de la comunicación con diez años de experiencia tome decisiones que no puede explicar del todo, pero que casi siempre son correctas.

La IA puede procesar masivamente el conocimiento codificable. El tácito solo se transmite de una manera: mediante la exposición directa de alguien que no lo tiene a alguien que sí lo tiene, en situaciones reales, con consecuencias reales. El modelo histórico es el aprendizaje por apprenticeship (aprendizaje por práctica supervisada junto a un experto): el profesional en formación observa, propone, comete errores en entornos de bajo riesgo supervisados, recibe corrección contextualizada, y acumula con el tiempo el sedimento de juicio que llamamos criterio profesional. Este mecanismo no es una preferencia pedagógica ni un rasgo cultural. Es el único mecanismo conocido para la transmisión de competencias que resisten la codificación.

Un paper publicado en Arxiv en 2025 sobre automatización y transmisión intergeneracional del conocimiento modeliza matemáticamente lo que ocurre cuando ese mecanismo se interrumpe. Sus hallazgos son precisos: la automatización de tareas de entrada rompe la interacción experto-novato, que es el canal primario de transmisión del conocimiento tácito. El modelo identifica tres equilibrios de largo plazo posibles. El más preocupante es el que los autores denominan Learning Breakdown (colapso del aprendizaje: el escenario en que la automatización extensiva restringe tanto las interacciones entre profesionales con experiencia y profesionales en formación que el stock agregado de conocimiento tácito se erosiona gradualmente hasta comprometer la productividad global). No de golpe. Gradualmente. En el plazo de una generación profesional.

Lo que hace especialmente inquietante este escenario es que sus efectos no son visibles a corto plazo. Un departamento de comunicación que elimina sus perfiles junior en 2025 no verá las consecuencias en 2026. Las verá cuando los profesionales con experiencia roten o se jubilen y no haya nadie que haya acumulado el criterio que ellos tenían. Para entonces, el problema no tendrá solución rápida.

La escalera que ya no está

El mercado laboral de la comunicación y el periodismo en 2025 documenta este proceso con datos que ya no admiten interpretación optimista.

El informe de tendencias 2026 del Reuters Institute, basado en encuestas a 280 directivos de medios de 51 países, registra que el tráfico de Google Search a editores de noticias cayó un 33% entre noviembre de 2024 y noviembre de 2025. Google Discover cayó un 21% en el mismo periodo. Los editores esperan una caída adicional del 43% en los próximos tres años. El 67% de los directivos afirma no haber salvado ningún puesto de trabajo gracias a las eficiencias de la IA, pero sí han reducido plantillas por caída de ingresos ligados a ese tráfico.

En comunicación corporativa y relaciones públicas, el mecanismo es diferente pero el resultado es idéntico. Las ofertas de empleo de nivel inicial en EE.UU. han caído un 35% desde enero de 2023, según datos de Revelio Labs. Las tareas absorbidas primero por la automatización son exactamente las que formaban el núcleo del trabajo de los perfiles junior en gabinetes y departamentos de comunicación: monitorización de medios, primeros borradores de notas de prensa, construcción de bases de datos de contactos, análisis básico de cobertura, redacción de contenido para redes sociales. Son tareas de alta repetición de patrones y procesamiento de texto predecible. Son también los entornos donde un profesional en formación aprendía a leer el tono de una organización, a entender qué importa y qué no, a desarrollar el criterio que más adelante aplicaría en decisiones más complejas.

El análisis de CNBC captura la dimensión sistémica del problema con una formulación que no necesita desarrollo: la IA no está acabando solo con los empleos de nivel inicial. Está acabando con la escalera profesional. El problema no es solo que desaparezcan los empleos de entrada. Es que esos empleos eran el mecanismo histórico mediante el cual los profesionales de la comunicación, tanto en redacciones como en departamentos corporativos, desarrollaban criterio, contexto y juicio. Reuters publicó en 2025 la convocatoria para su primer editor de IA para redacción, un perfil que exige experiencia editorial consolidada, conocimiento de ingeniería de instrucciones, Python y APIs. Es un perfil que por definición no puede ser junior: requiere haber ejercido durante años el criterio que la IA debe replicar. La misma organización que publica esa convocatoria forma parte de un sector que está eliminando los puestos donde ese criterio se formaría.

La paradoja tiene nombre propio en la investigación académica de 2025: training deficit (déficit formativo: la brecha que resulta de automatizar procesos antes de comprender cómo se forja la competencia que esos procesos producían). AIJourn lo formula con precisión en su análisis de servicios profesionales: los mayores fallos de IA serán cognitivos, no técnicos. Las organizaciones que se enfocaron solo en velocidad enfrentarán a un deterioro de competencias por falta de práctica a medida que desaparezcan las oportunidades de aprendizaje a través de la experiencia. Será un fallo de aprendizaje, no de tecnología.

Hay un concepto que emerge de la investigación de 2025 que merece atención específica: la deuda cognitiva organizacional. La analogía es precisa: depender del GPS para navegar no solo permite llegar al destino. También hace olvidar cómo orientarse sin él. Cuando el GPS falla, el conductor está perdido no porque la herramienta haya fallado, sino porque nunca se formó la competencia de base. En comunicación, ese GPS es la IA generativa. La orientación que se pierde, si no se preservan las condiciones para que se forme, es el criterio editorial.

Dos decisiones, el mismo momento

En octubre de 2025 y el 9 de marzo de 2026. Dos noticias de sectores distintos, dos organizaciones de tamaños incomparables, dos decisiones que ilustran con precisión lo que ocurre cuando el criterio existe articulado y cuando no.

Ipswich.co.uk es un medio digital local fundado en agosto de 2024 por Oliver Rouane-Williams, ex director de producto digital de Archant, la editora regional absorbida por Newsquest en ese mismo periodo de consolidación del sector. El acto fundacional dice algo sobre su lógica: Rouane-Williams vendió su coche para comprar el dominio, invirtió 70.000 libras de sus ahorros, captó 90.000 libras adicionales de un inversor local. Sin capital de riesgo externo, sin grupo editorial detrás, en una ciudad que ya cubren tres cabeceras con más de un siglo de historia.

La decisión más significativa no fue el modelo de negocio, aunque también lo es: sin publicidad de display, sin muro de pago, con ingresos por socios locales que financian cobertura con transparencia sobre el coste por artículo. La decisión más significativa fue instalar la redacción en la calle mayor de Ipswich. No en una oficina. En el espacio comercial más visible de la ciudad, deliberadamente, como declaración de intenciones. La misión del medio lo articula sin ambigüedad: lanzaron Ipswich.co.uk para contribuir directa e indirectamente a la regeneración de su ciudad. La redacción física en la calle mayor no es logística. Es la tesis del medio convertida en presencia.

Los resultados del primer año son llamativos no por el volumen —528.000 visitas, 1.928 artículos— sino por un dato de comportamiento de audiencia que es difícil de conseguir con dinero: una tasa de apertura de boletín del 90% mensual. En un entorno donde los medios locales convencionales están viendo caer su tráfico de referencia un tercio en un año, un medio de diez meses de vida tiene el 90% de sus suscriptores abriendo su boletín cada mes. Eso no es una métrica de distribución. Es una métrica de confianza. Y la confianza, en este caso, tiene una causa identificable: un criterio editorial articulado desde el origen, público, operativo, que los lectores pueden verificar porque la redacción está en la calle donde viven.

El 9 de marzo de 2026, la empresa de ciberseguridad ofensiva CodeWall publicó los resultados de un ejercicio de ataque simulado contra Lilli, la plataforma interna de IA de McKinsey & Company. Lilli fue lanzada en 2023 y se convirtió en la herramienta central de trabajo de los consultores: el 72% de la plantilla, más de 40.000 empleados, la usaba activamente. Generaba más de 500.000 consultas mensuales. Contenía décadas de investigación, marcos analíticos y metodologías propias de McKinsey procesadas como vectores semánticos. Era, en sentido preciso, el conocimiento tácito de la firma convertido en infraestructura.

El ataque fue completamente autónomo, ejecutado por un agente de IA con un coste de 20 dólares en procesamiento y dos horas de trabajo. La vulnerabilidad técnica era una inyección SQL —una de las más antiguas y conocidas del manual de seguridad informática—. Lo que obtuvo en acceso fue 46,5 millones de mensajes de conversación sobre estrategia, fusiones y proyectos de clientes, 728.000 archivos con datos confidenciales, 57.000 cuentas de usuario, y 3,68 millones de fragmentos de la base de conocimiento propietaria de McKinsey.

Pero el hallazgo cualitativamente distinto fueron los 95 instrucciones base —los system prompts (instrucciones que definen cómo razona y responde el sistema de IA)— que controlaban el comportamiento de Lilli. Todos escribibles. El CEO de CodeWall lo formuló con precisión: un atacante con ese acceso no solo roba datos. Puede cambiar silenciosamente cómo Lilli razona y responde para cada empleado de McKinsey. No es solo una brecha de datos. Es un vector de envenenamiento del criterio institucional.

La mecánica merece atención: las instrucciones base de Lilli estaban almacenadas en la misma base de datos que los datos operativos. Con una única instrucción en una sola llamada, sin desplegar código ni modificar ningún sistema, un atacante podría haber reescrito silenciosamente qué recomienda Lilli, qué restricciones aplica, cómo cita fuentes, qué información prioriza, para los 40.000 usuarios simultáneamente. Sin dejar trazas en los registros convencionales, porque las instrucciones modificadas no generan alertas en los sistemas de monitorización tradicionales.

McKinsey había hecho exactamente lo que la investigación recomienda: había codificado su criterio institucional, lo había convertido en instrucciones operativas, lo había integrado en el sistema. Y después no había tratado esas instrucciones como infraestructura crítica. Las había dejado en la misma base de datos que los datos operativos, sin separación de planos, sin monitorización específica, sin la protección que se aplica a los datos que sí se reconocen como valiosos.

El fallo no es técnico en el sentido relevante. Es de gobernanza: nadie pensó que las instrucciones base eran infraestructura crítica porque nadie había conceptualizado el criterio como activo que necesita protección. El criterio estaba ahí, codificado, funcionando. Pero no estaba reconocido como lo que era.

Lo que se automatiza cuando no hay criterio

Hay una observación del análisis de AIJourn sobre los fallos de IA en servicios profesionales que merece más desarrollo del que habitualmente recibe: la mayoría de las organizaciones necesita el mismo mensaje repetido en cinco formatos distintos, durante seis meses, por tres líderes diferentes, antes de que se convierta en práctica real. En 2025, los líderes sobreinvirtieron en herramientas y subestimaron la repetición de criterio.

La repetición de criterio. No la definición inicial. La repetición. Porque el criterio no se instala. Se practica, se corrige, se discute, se aplica en casos concretos que lo ponen a prueba, se ajusta cuando esos casos revelan que era más vago de lo que parecía. Este proceso es lento, requiere personas que lo sostengan, y produce como resultado algo que no tiene forma de archivo: una forma compartida de ver qué importa y qué no.

Cuando un departamento de comunicación, o una redacción, despliega IA sin ese proceso previo, lo que automatiza no es su criterio. Automatiza su ausencia de criterio. A escala, y con la coherencia aparente que los sistemas bien entrenados producen, lo que es aún más peligroso que el error obvio. Un comunicado de prensa mal redactado por un humano se nota. Un comunicado de prensa bien redactado pero con el criterio equivocado puede pasar todos los controles formales y aun así representar un problema institucional que nadie identifica hasta que es tarde.

El famoso y muy citado estudio del MIT de 2025 sobre fracasos de proyectos de IA empresarial apunta en la misma dirección desde un ángulo diferente: el 95% de los proyectos de IA empresarial fracasa, y la causa no son los modelos. Es lo que el estudio denomina la brecha de aprendizaje organizacional: las herramientas no aprenden de los flujos de trabajo porque nadie definió esos flujos antes del despliegue. Para los departamentos de comunicación y los gabinetes de prensa, esto se agrava porque son precisamente quienes deberían articular ese criterio, y son los que menos lo hacen.

No lo hacen no por negligencia sino por una razón estructural: el criterio editorial nunca fue reconocido como activo que necesita gestión explícita. Era parte del mobiliario profesional, algo que los buenos comunicadores tenían y los malos no, sin que nadie se preguntase de dónde venía ni cómo se transfería. La IA ha hecho esa pregunta inevitable. Y la respuesta que están encontrando muchas organizaciones es que no saben contestarla.

La pregunta que queda abierta

Este artículo ha tratado de gobernanza, pero no en el sentido abstracto en que ese término circula habitualmente en los documentos corporativos sobre IA. Ha tratado de algo más concreto: de qué ocurre cuando una organización no puede articular el criterio con el que toma sus decisiones de comunicación, y de cómo la IA está convirtiendo esa incapacidad en un problema urgente en lugar de uno latente.

En enero de 2025 publiqué en Conexión Pública un análisis del marco de gobernanza responsable de Papagiannidis, Mikalef y Conboy, que establece los principios para implementar IA de forma ética y fiable. Los principios son correctos. Pero entre el principio y la práctica hay una distancia que ese tipo de marco no siempre recorre: la distancia entre saber que el criterio es necesario y ser capaz de articularlo cuando alguien lo pide.

Ipswich.co.uk tiene una tasa de apertura de boletín del 90% mensual porque su criterio editorial es legible para su audiencia. La redacción en la calle mayor no es una decisión de distribución. Es la materialización física de un criterio: este medio existe para contribuir a la regeneración de esta ciudad. Todo lo demás se ordena a partir de ahí. Los lectores lo entienden porque el criterio es visible, no porque lo hayan leído en ningún documento.

McKinsey tenía ese criterio codificado en 95 instrucciones base. Lo suficientemente valioso como para que un agente autónomo decidiese que merecía la pena acceder a él. No lo suficientemente reconocido como para protegerlo con la misma diligencia que los datos financieros de los clientes.

La pregunta que esto deja abierta no es técnica ni regulatoria. Es más básica: ¿cuántos departamentos de comunicación, cuántos gabinetes de prensa, cuántas redacciones podrían articular hoy, sin necesitar tres reuniones para consensuar la respuesta, cuál es el criterio con el que toman sus decisiones? No la misión. No los valores corporativos. El criterio operativo real: qué se comunica, qué no, por qué, bajo qué condiciones eso cambia, y quién tiene la autoridad para decidirlo.

Si no existe esa respuesta, lo que se está preparando para implementar no es inteligencia artificial. Es la automatización de una pregunta sin contestar.

Fuentes citadas

Global Alliance Report on AI and Communications (2025) Datos sobre el rol de los equipos de comunicación en la gobernanza de IA en sus organizaciones. Referencia en el texto: bloque “El activo que nadie había nombrado”. Vía: Stuart Bruce PR — https://www.stuartbruce.biz/2025/05/comms-failing-to-provide-leadership-for-ai/

Politico / PEN Guild (2025) Caso de despliegue de herramientas de IA en redacción sin criterio editorial previo y sin notificación sindical. Arbitraje en curso. Referencias en el texto: bloque “Cuando el criterio falla en público”. — https://tomorrowspublisher.today/editing-tools/politico-says-ai-tools-sit-outside-the-newsroom/https://www.techdirt.com/2025/08/25/politico-management-insists-ai-shouldnt-be-held-to-any-sort-of-human-editorial-standards-because-its-built-by-coders-not-journalists/

BBC Editorial Guidelines (2025) Actualización de las directrices editoriales de la BBC con capítulo específico sobre IA. Referencia en el texto: bloque “Cuando el criterio falla en público”. https://www.bbc.co.uk/editorialguidelines/documents/bbc-editorial-guidelines-2025.pdf

Associated Press — Standards around generative AI Formalización de estándares editoriales para IA a partir de los valores fundacionales de la AP. Referencia en el texto: bloque “Cuando el criterio falla en público”. https://www.ap.org/the-definitive-source/behind-the-news/standards-around-generative-ai/

Thomson Reuters Foundation — Three steps to an AI-ready newsroom (2025) Guía práctica que establece la revisión de políticas editoriales como paso previo al despliegue de IA. Referencia en el texto: bloques “Cuando el criterio falla en público” y “Lo que se automatiza cuando no hay criterio”. https://www.trust.org/wp-content/uploads/2025/04/Three-steps-to-an-AI-ready-newsroom-a-practical-guide.pdf

ComplexDiscovery — From Brand Guidelines to Brand Guardrails (2025) Análisis del desplazamiento terminológico y conceptual de guías de marca a límites operativos en entornos de IA. Referencia en el texto: bloque “Cuando el criterio falla en público”. https://complexdiscovery.com/from-brand-guidelines-to-brand-guardrails-leaderships-new-ai-responsibility/

Polanyi, Michael — The Tacit Dimension (1966) Distinción entre conocimiento codificable y conocimiento tácito. Base teórica del argumento sobre transmisión de criterio profesional. Referencia en el texto: bloque “El conocimiento que no se puede decir”.

Automation, AI, and the Intergenerational Transmission of Knowledge — arxiv (2025) Modelización matemática de los efectos de la automatización sobre la transmisión intergeneracional del conocimiento tácito. Concepto de Learning Breakdown. Referencia en el texto: bloque “El conocimiento que no se puede decir”. https://arxiv.org/pdf/2507.1

6078.pdf

AIJourn — Are We Automating Professional Services Into a Knowledge Crisis? (2025) Análisis del déficit formativo en servicios profesionales por automatización prematura. Referencia en el texto: bloques “El conocimiento que no se puede decir” y “Lo que se automatiza cuando no hay criterio”. https://aijourn.com/are-we-automating-professional-services-into-a-knowledge-crisis/

Reuters Institute — Trends and Predictions 2026 Datos sobre caída del tráfico de búsqueda a medios de comunicación y reducción de plantillas en el sector. Referencia en el texto: bloque “La escalera que ya no está”. https://pressgazette.co.uk/media-audience-and-business-data/google-traffic-down-2025-trends-report-2026/

Revelio Labs / CNBC — AI isn’t just ending entry-level jobs. It’s ending the career ladder (2025) Datos sobre caída de ofertas de empleo de nivel inicial y análisis sistémico de la desaparición de la escalera profesional. Referencia en el texto: bloque “La escalera que ya no está”. https://www.cnbc.com/2025/09/07/ai-entry-level-jobs-hiring-careers.html

Thomson Reuters — Newsroom AI Editor (convocatoria 2025) Perfil de contratación que ilustra la paradoja del criterio: un puesto que exige haber ejercido lo que la IA debe replicar. Referencia en el texto: bloque “La escalera que ya no está”. https://www.brightnetwork.co.uk/graduate-jobs/thomson-reuters/newsroom-ai-editor-london-2025

Thomson Reuters Foundation — Journalism in the AI era (2025) Análisis sobre la pérdida de oportunidades formativas para periodistas jóvenes en entornos de automatización. Referencia en el texto: bloque “La escalera que ya no está”. https://www.trust.org/wp-content/uploads/2025/01/TRF-Insights-Journalism-in-the-AI-Era.pdf

The Conversation — AI could mark the end of young people learning on the job (enero 2026) Análisis de las consecuencias del aprendizaje mediado por IA sobre la formación de criterio experto. Referencia en el texto: bloque “La escalera que ya no está”. https://theconversation.com/ai-could-mark-the-end-of-young-people-learning-on-the-job-with-terrible-results-275352

Ipswich.co.uk — Press Gazette / contenido propio del medio (2024–2025) Caso de medio digital local con criterio editorial articulado desde el origen y modelo de negocio sin publicidad programática ni muro de pago. Referencia en el texto: bloque “Dos decisiones, el mismo momento”. — https://pressgazette.co.uk/news/ipswich-local-news-site-launches-seed-funding-round-after-first-year/https://www.ipswich.co.uk/articles/why-local-news-must-stop-ignoring-its-youngest-readers

CodeWall / McKinsey Lilli (marzo 2026) Caso de vulnerabilidad en la plataforma interna de IA de McKinsey. Acceso a instrucciones base escribibles como vector de manipulación del criterio institucional. Referencia en el texto: bloque “Dos decisiones, el mismo momento”. — https://www.theregister.com/2026/03/09/mckinsey_ai_chatbot_hacked/https://www.thestack.technology/mckinsey-ai-agent-hacked-lilli/https://the-decoder.com/an-ai-agent-hacked-mckinseys-internal-ai-platform-in-two-hours-using-a-decades-old-technique/https://developmentcorporate.com/product-management/enterprise-ai-security-due-diligence-what-the-mckinsey-lilli-hack-reveals-about-your-next-acquisition-target/https://www.mckinsey.com/about-us/media/statement-on-strengthening-safeguards-within-the-lilli-tool

MIT — Why 95% of Corporate AI Projects Fail (2025) Análisis sobre la brecha de aprendizaje organizacional como causa principal del fracaso de proyectos de IA empresarial. Referencia en el texto: bloque “Lo que se automatiza cuando no hay criterio”. — https://fortune.com/2025/08/18/mit-report-95-percent-generative-ai-pilots-at-companies-failing-cfo/https://complexdiscovery.com/why-95-of-corporate-ai-pilots-fail-lessons-from-mits-2025-study/

Papagiannidis, E., Mikalef, P. y Conboy, K. — Responsible Artificial Intelligence Governance: A Review and Research Framework Journal of Strategic Information Systems. Marco de gobernanza responsable de IA. Analizado en Conexión Pública, enero 2025. Referencia en el texto: bloque “La pregunta que queda abierta”. https://conexionpublica.es/gobernanza-responsable-de-la-inteligencia-artificial-analisis-del-estudio-de-papagiannidis-mikalef-y-conboy/

Publicaciones Similares