El periodismo corre, la verdad se queda atrás

El mayor estudio internacional sobre inteligencia artificial y periodismo acaba de arrojar una conclusión incómoda. ChatGPT, Copilot, Gemini y Perplexity —los cuatro grandes asistentes del momento— cometen errores graves en casi la mitad de las noticias que generan. Según la investigación de la EBU y la BBC, el 45 % de las respuestas contenía al menos un fallo significativo y el 81 % presentaba algún tipo de problema. Gemini fue el peor evaluado: el 76 % de sus resultados mostraba errores sustanciales, sobre todo por uso incorrecto de fuentes.
Los datos son contundentes: más de 3 000 respuestas en 14 idiomas, analizadas por 22 medios públicos de 18 países. Cifras que ya no permiten hablar de accidentes puntuales. Los fallos son multilingües, persistentes y estructurales. En realidad, más que un error de software, lo que emerge es un error de sistema.
Una distorsión que no empieza en el código
El estudio revela tres patrones dominantes: ausencia o manipulación de fuentes (31%), inexactitud factual (20 %) y falta de contexto (14 %). Pero detrás de cada porcentaje hay algo más profundo. No es la máquina la que inventa la distorsión; somos nosotros quienes la entrenamos con hábitos profesionales que ya habíamos desfigurado antes.
Durante años, el periodismo se acostumbró a publicar sin tiempo, sin contexto, sin rostro; a delegar en la métrica lo que antes dependía del criterio. Cuando un asistente cita sin verificar, reproduce la misma lógica de las redacciones que priorizan la velocidad sobre la comprobación. La diferencia es que ahora ese reflejo se amplifica a escala global.
No es una novedad tecnológica, sino una continuidad industrial. Los algoritmos no inventan el descuido: lo sistematizan. Y lo que antes era un error de redacción se convierte ahora en una distorsión planetaria.
El algoritmo como espejo editorial
Cada ejemplo del estudio podría leerse como una parábola sobre la fragilidad informativa. ChatGPT prolongó la vida del Papa meses después de su fallecimiento. Copilot rescató una vacuna obsoleta de 2006 para hablar de la gripe aviar. Perplexity afirmó que la gestación subrogada era ilegal en Chequia, cuando en realidad no está regulada. Gemini confundió la prohibición de venta con la de compra de cigarrillos electrónicos.
En apariencia, son deslices anecdóticos, pero juntos componen un patrón revelador: la IA no solo falla en los datos, sino en el sentido. Su problema no es la mentira, sino la ausencia de duda. Habla con la seguridad de quien desconoce la incertidumbre. Y en ese tono —eficiente, confiado, impersonal— se esconde su mayor riesgo: reemplazar la verificación por la verosimilitud.
El verdadero conflicto no es técnico, sino ético. Los asistentes no sustituyen al periodista, sino su conciencia. El resultado no es desinformación intencionada, sino información sin responsabilidad.
Una ética operativa, no declarativa
La solución no puede limitarse a exigir transparencia a las empresas tecnológicas; también debe implicar un cambio de cultura en las redacciones. Urge una ética operativa, no declarativa. No bastan los principios: hacen falta protocolos.
Propongo un marco simple: trazabilidad, avisos y límites. Trazabilidad para saber de dónde procede cada dato, bajo qué condiciones se generó y con qué nivel de confianza; avisos claros cuando una respuesta se produzca sin fuentes verificables; y límites de uso según el tipo de contenido: la IA puede resumir, nunca confirmar; puede asistir, nunca sustituir.
La EBU y la BBC recomiendan auditorías externas, etiquetado visible y actualización continua de los modelos. Pero ninguna norma sustituirá la pregunta esencial: ¿quién responde por lo que publica una máquina? Hasta que los medios no tengan una respuesta clara, seguirán delegando su responsabilidad en una interfaz amable.
De la automatización al rostro
Lo paradójico es que, mientras los sistemas ganan visibilidad, los periodistas la pierden. La automatización de la información ha coincidido con la desaparición de las firmas reconocibles, las voces que daban contexto y legitimidad. El estudio de la EBU y la BBC no solo habla de fallos técnicos, sino del coste de haber renunciado a la autoría.
La IA debe volver a su lugar natural: la tramoya. La máquina tiene que liberar tiempo, no criterio. El rostro humano —ese que duda, explica y asume errores— debe volver al frente del relato. Porque la confianza no se delega: se encarna.
Los medios que sobrevivan serán aquellos capaces de convertir la transparencia en valor editorial: mostrar no solo el qué, sino el cómo y el quién. El futuro del periodismo no se medirá por la rapidez de la respuesta, sino por la honestidad del proceso.
El espejo roto
La inteligencia artificial no está destruyendo el periodismo: lo está reflejando. Nos devuelve, píxel a píxel, la imagen de un oficio que olvidó mirarse mientras producía reflejos.
En cada error de Gemini hay un descuido humano previo; en cada fuente inventada, una práctica editorial débil; en cada contexto omitido, un oficio apresurado. La IA no inventa la crisis de confianza: la hace visible.
El reto no es aprender a usar mejor la tecnología, sino a usarla sin renunciar a nosotros. No necesitamos más precisión automática, sino más responsabilidad humana. Porque cuando el espejo se rompe, lo que vemos no es su grieta, sino la fractura de quien dejó de reconocerse en él.