|

IA y el fin del Internet abierto: crisis y alternativas

Durante más de dos décadas, el pacto tácito que sostuvo el crecimiento de la web abierta fue sencillo: los creadores compartían su contenido de forma accesible y gratuita, y a cambio, los motores de búsqueda les enviaban tráfico. Ese flujo de visitas era la materia prima que alimentaba modelos de negocio basados en publicidad, suscripciones y donaciones. Sin embargo, este equilibrio se ha visto fracturado con la irrupción de la inteligencia artificial generativa. A diferencia de los buscadores clásicos, los grandes modelos de lenguaje (LLM) como ChatGPT, Gemini o Perplexity no redirigen tráfico; consumen contenido, lo sintetizan y presentan respuestas completas, sin atribución significativa ni retorno económico. Así, la web está dejando de ser una red viva de interconexiones para transformarse en un corpus de entrenamiento.

Este cambio no es hipotético: estudios como el de SparkToro muestran que el 59% de las búsquedas en Google ya no generan ningún clic externo. El contenido deja de ser una puerta de entrada para convertirse en un insumo que alimenta interfaces centralizadas y cerradas. Este fenómeno no solo pone en crisis los ingresos de los editores, sino que redefine el propio concepto de la web: de red de destinos a matriz de extracción. En este escenario, la IA no actúa como distribuidora, sino como terminal de consumo de conocimiento.

El modelo publicitario se rompe: menos clics, menos incentivos

La reconfiguración del tráfico digital ha producido un colapso progresivo del modelo económico de la web abierta. Históricamente, los creadores producían contenido optimizado para buscadores con el objetivo de atraer visitas, mostrar anuncios y generar ingresos. Pero si los usuarios ya no necesitan hacer clic para acceder a la información —porque la IA se los entrega empaquetados en forma de respuestas—, esa cadena de valor se interrumpe. Según TollBit, el tráfico de referencia proveniente de chatbots como ChatGPT es un 96% inferior al de Google Search. La tasa de clics (CTR) desde estos modelos es de apenas 0,37%, frente al 8,63% de los resultados tradicionales en buscadores.

Esto tiene un impacto directo en los ingresos por publicidad. Datos del estudio de Amsive revelan que algunos medios han perdido entre el 30% y el 70% de su tráfico en páginas donde Google ha incorporado resúmenes generados por IA (AI Overviews). Esta caída no se compensa con “clics de calidad” ni con usuarios más informados. Simplemente, hay menos visitas, menos impresiones, y por tanto, menos ingresos. El SEO clásico —centrado en captar clics desde búsquedas— comienza a volverse obsoleto. Surge así un nuevo campo: la Optimización para Motores Generativos (GEO), orientado no a atraer al usuario, sino a que el contenido sea elegible para alimentar y ser citado por los modelos de IA.

El problema es que esa visibilidad no garantiza una retribución. Se produce, por tanto, una disociación entre visibilidad y valor. El contenido sigue siendo leído —por máquinas—, pero ya no genera retorno. Y sin retorno, la sostenibilidad del sistema informativo queda en entredicho.

Protecciones anti-IA: de CAPTCHAs a muros de pago

Frente a esta extracción unilateral, muchos creadores han comenzado a levantar barreras. La respuesta ha sido clara: si los LLM no devuelven tráfico ni reconocimiento, entonces no deben tener acceso libre al contenido. De ahí la proliferación de mecanismos técnicos como headers anti-bot, directivas en robots.txt para bloquear rastreadores o incluso estrategias legales de refuerzo de los términos de uso. Plataformas como Reddit o X (antes Twitter) ya han limitado su API para impedir el scraping masivo. Stack Overflow, por su parte, firmó recientemente un acuerdo con OpenAI, tras bloquear durante meses el acceso de scrapers a sus datos.

Este cambio no es anecdótico. La web abierta está siendo cerrada de forma progresiva y selectiva, en lo que podría describirse como una reacción inmunitaria del ecosistema. Muchos medios están comenzando a esconder su contenido detrás de muros de pago no sólo por razones económicas, sino como medida de protección frente a la recolección automática por parte de sistemas de IA. La ironía es que la infraestructura que facilitó el desarrollo de la IA —una web libre, accesible y abierta— ahora se ve forzada a replegarse para sobrevivir.

Este fenómeno recuerda a la dinámica que condujo a la concentración en redes sociales: cuando los beneficios se concentran en plataformas extractivas, el contenido independiente queda marginado o desincentivado. El peligro es evidente: una web fragmentada, dividida entre zonas “licenciadas” y zonas “hostiles”, donde la información se mercantiliza en bloque y pierde su carácter accesible y común.

La respuesta humana: identidad, comunidad y autenticidad

A medida que los contenidos generados por IA se multiplican, crece el valor percibido de lo humano, lo identificable y lo genuino. Esta tendencia ha dado lugar a una “web acogedora”, una contracorriente digital centrada en la identidad y la comunidad como barreras contra la anonimización algorítmica. En este entorno, tener una voz propia, una firma reconocible o una comunidad que confía en ti es una forma de resiliencia.

Mientras la IA tiende a lo genérico, la audiencia comienza a valorar lo específico, lo emocional, lo artesanal. Plataformas como Substack, Patreon o incluso newsletters personales prosperan porque ofrecen algo que ninguna IA puede replicar del todo: vínculo. Este nuevo entorno no busca competir en volumen o eficiencia, sino en afiliación, confianza y coherencia. Lo vemos también en redes como Mastodon o Discord, donde la conversación se orienta a círculos más reducidos, pero más implicados.

Este fenómeno no solo es cultural, sino estratégico. Si el contenido genérico se abarata —porque lo genera una máquina—, el valor se desplaza a lo que no se puede automatizar: experiencia, perspectiva, tono, reputación. La autenticidad ya no es una cualidad estilística, sino una ventaja competitiva. Y es también una estrategia de protección: lo que tiene una comunidad activa es menos vulnerable a la sustitución. En una web saturada de simulacros, lo humano sigue siendo diferencial.

¿Puede sobrevivir el conocimiento libre en la era IA?

La web abierta se enfrenta a una encrucijada. Lo que empezó como un proyecto de conocimiento libre corre el riesgo de convertirse en una infraestructura de entrenamiento gratuita para modelos cerrados. La paradoja es que el mayor salto tecnológico en comprensión del lenguaje ha sido posible gracias a contenidos que ahora no reciben retribución alguna. El resultado es un desequilibrio estructural: el valor económico se concentra en los desarrolladores de IA, mientras los creadores de los datos fundacionales ven desaparecer sus fuentes de ingresos.

Litigios como el de The New York Times vs. OpenAI, o el de Getty Images vs. Stability AI, apuntan a un escenario judicial que busca redefinir los límites del uso justo (fair use) en la era algorítmica. Mientras tanto, surgen propuestas de modelos de retribución estructural: licencias colectivas inspiradas en el mundo musical, impuestos sobre la IA o la exigencia de transparencia en los conjuntos de entrenamiento.

Pero más allá de lo jurídico, lo que está en juego es una visión del conocimiento. ¿Queremos una red distribuida y accesible, o una sucesión de interfaces cerradas donde el usuario nunca abandona la plataforma? El riesgo no es solo económico, sino epistémico: si las futuras generaciones de IA se entrenan sobre datos generados por IA, sin retroalimentación humana, corremos el riesgo de crear una cámara de eco algorítmica que empobrezca el conocimiento colectivo.

No se trata de frenar la IA, sino de rediseñar el pacto: uno en el que el valor que fluye desde la sociedad digital se redistribuya de forma justa y sostenible.

Publicaciones Similares