IA sin supervisión: el mayor fallo no es de la máquina

El escándalo del Chicago Sun-Times, al publicar una lista de libros falsos generada por IA sin revisión humana, no es un fallo tecnológico, sino editorial. La inteligencia artificial, como herramienta, no hizo otra cosa que ejecutar lo que se le pidió: generar contenido. El problema surgió cuando ese contenido, no verificado, se publicó bajo el amparo de una cabecera histórica. Este incidente evidencia una tendencia preocupante: la automatización de procesos editoriales sin supervisión crítica.
En un momento en que los medios luchan por mantener relevancia y credibilidad, la decisión de delegar funciones esenciales de curaduría a sistemas automáticos no solo es imprudente, sino contraproducente. La pregunta ya no es si la IA puede hacerlo, sino quién valida lo que produce. Porque cuando la opinión se terceriza y se publica sin leer, el periodismo pierde su función más básica: la responsabilidad.
Externalización editorial: el síntoma estructural
Lo más alarmante de este caso no es solo la generación automática del contenido, sino la cadena de decisiones que permitió su publicación sin filtros. La pieza fue creada por un proveedor externo, sin supervisión editorial local, lo que refleja un proceso de desarticulación institucional. Delegar funciones estratégicas —como la selección, revisión y publicación de contenidos— a empresas satélite reduce el papel del periodista a mero operador final, sin capacidad de control.
Esta externalización no es nueva, pero en el contexto de la IA cobra una dimensión más grave: se automatiza sin saber exactamente qué se automatiza, ni quién se hace cargo del resultado. El contenido, en lugar de ser construido, es subcontratado como un servicio logístico. Lo que se pierde, entonces, no es solo calidad, sino también responsabilidad y propósito editorial.
IA sin intervención humana: ¿eficiencia o negligencia?
La idea de que la inteligencia artificial puede agilizar tareas es indiscutible. Sin embargo, cuando se utiliza sin intervención humana en entornos donde la veracidad y el juicio editorial son críticos, la eficiencia se transforma en negligencia. La gobernanza responsable de IA, como señalan estudios recientes, requiere marcos de control, transparencia y supervisión continua. Sin estos elementos, los modelos generativos no distinguen entre ficción y no ficción, entre dato y bulo.
Utilizar IA para producir listas, columnas o recomendaciones no es en sí negativo. El problema surge cuando se actúa como si el contenido generado fuese neutral, confiable o definitivo. En el caso del Sun-Times, se actuó como si el producto automático fuese un insumo editorial legítimo por el simple hecho de haber sido producido. Esa lógica no solo erosiona el periodismo, sino que lo vacía de su responsabilidad de interpretar, verificar y aportar valor.
Consecuencias y reacción tardía: apagar el fuego sin haber puesto detectores
La reacción del medio llegó tarde, y eso dice mucho. Solo tras la exposición pública del fallo se decidió implementar una política de revisión humana para contenidos generados por IA. La pregunta que queda en el aire es por qué no se había hecho antes. El error no fue puntual: fue estructural. Refleja la ausencia de protocolos de verificación adaptados al nuevo entorno digital, donde automatización y velocidad suelen primar sobre precisión y sentido.
Esta falta de previsión se inscribe en una lógica más amplia de precarización de los procesos editoriales: se actúa cuando el daño ya está hecho, no antes. Además, ilustra una desconexión entre lo técnico y lo editorial, como si fueran mundos separados. Pero no lo son. La supervisión humana no es un gesto de desconfianza hacia la tecnología, sino una exigencia mínima de calidad, ética y profesionalismo.
¿Qué debe seguir siendo humano?: preguntas para un futuro híbrido
La IA es, sin duda, una oportunidad extraordinaria para enriquecer el trabajo periodístico: permite automatizar tareas rutinarias, liberar tiempo para investigar y multiplicar la capacidad de análisis. Pero si se convierte en una herramienta más que simplemente añadir a la carga de trabajo sin rediseñar los procesos, se habrá perdido su verdadero potencial. La pregunta no es humano o máquina, sino cómo trabajar juntos sin reducir al periodista a una máquina adicional.
Si el camino es producir más con menos pensamiento crítico, con menos pausa, entonces no se está aprovechando el potencial de la IA, sino replicando los errores estructurales que han deteriorado la profesión en las últimas décadas. El reto es evitar que tanto el sistema como sus operadores se conviertan en fábricas de contenido sin alma. La responsabilidad —el juicio, la revisión, la curaduría— debe seguir siendo humana, porque es ahí donde el periodismo encuentra su razón de ser.