Internet enferma, IA como antídoto

Internet nació como una promesa de apertura y democratización, pero en dos décadas se ha transformado en un ecosistema donde las plataformas extraen más valor del que devuelven. Cory Doctorow bautizó este proceso con un término tan brutal como preciso: enshittification.
Amazon, Airbnb, Meta… La historia reciente es la de servicios que primero encantan, luego manipulan y finalmente degradan. Sin embargo, emerge una hipótesis inesperada: la inteligencia artificial podría invertir esta tendencia. La pregunta es si actuará como catalizador de una “desenshittificación” o si, atrapada por la lógica de las big tech, terminará por profundizar la decadencia digital.
La degradación como norma digital
Doctorow describió la enshittification como una secuencia inevitable: primero la plataforma beneficia al usuario, luego privilegia a los proveedores y, finalmente, exprime a ambos en favor de los accionistas. El resultado es una experiencia cada vez más opaca y menos confiable. Los ejemplos abundan: Airbnb escondiendo tarifas, Amazon saturado de reseñas falsas, Facebook reconfigurando su algoritmo para maximizar la permanencia y la polarización. La degradación no es un accidente, sino un modelo de negocio.
Pero la enshittification no solo se manifiesta en los productos: también habita las culturas organizacionales que los producen. El caso de Meta es paradigmático. Su apuesta por fichajes millonarios —con contratos superiores a los 100 millones de dólares— convive con denuncias de entornos tóxicos donde, según el ex científico Tijmen Blankevoort, trabajar es “como hacerlo dentro de un cáncer metastásico”. Aquí la degradación es doble: del servicio y del marco humano que lo sostiene. Lo que se erosiona no es solo la experiencia de usuario, sino también la capacidad de las propias compañías para producir tecnología confiable.
La inteligencia como antídoto
Frente a esta deriva, aparece un contraargumento sugerente: ¿y si la inteligencia artificial pudiera elevar la capacidad crítica de los usuarios hasta neutralizar los incentivos para la manipulación? Max Levchin lo ha planteado con claridad: al aumentar el nivel medio de inteligencia, la IA reduce los márgenes para el engaño.
Los ejemplos prácticos ya se vislumbran:
- Motores de búsqueda que filtran el SEO basura y devuelven resultados realmente útiles.
- Herramientas capaces de detectar costes ocultos en plataformas de alquiler turístico.
- Sistemas que distinguen automáticamente el spam y la manipulación en redes sociales.
La IA, en este sentido, funciona como un nuevo sistema inmunológico digital: identifica los virus del engaño y los neutraliza antes de que degraden la experiencia. Pero este potencial requiere algo más que sofisticación técnica: depende de que el diseño incorpore ética, transparencia y gobernanza. De lo contrario, la propia IA puede convertirse en un multiplicador de ruido y opacidad.
La evidencia de la “Mass Intelligence”
La idea no es abstracta. Ethan Mollick ha documentado la emergencia de una era de Mass Intelligence, en la que más de mil millones de personas tienen acceso a sistemas avanzados de IA. El cambio es histórico: la inteligencia, antes escasa y cara, se ha vuelto abundante y barata. Si la alfabetización de masas transformó sociedades enteras en los siglos XIX y XX, la inteligencia distribuida puede hacerlo en el XXI.
Los experimentos ya muestran resultados. En Alpha School, estudiantes que usan tutores de IA aprenden hasta diez veces más rápido que con métodos tradicionales. No se trata solo de eficacia pedagógica: lo que está en juego es un salto civilizatorio en la capacidad de análisis, razonamiento y detección de falacias a escala poblacional. Una ciudadanía con acceso a inteligencia aumentada es menos vulnerable a la manipulación de plataformas cuyo negocio depende de la asimetría informativa.
Este cambio erosiona la base misma de la enshittification: si los usuarios ven más, comparan más y desconfían más, el margen para engañar se estrecha drásticamente.
¿Una desenshittificación sistémica?
Aquí emerge la hipótesis central: la IA podría iniciar una “desenshittificación” sistémica de Internet. Imaginemos un escenario donde las plataformas ya no pueden ocultar costes, distorsionar reseñas o manipular algoritmos porque los usuarios —armados con IA— lo detectan de inmediato. El modelo extractivo se vuelve inviable, forzando un rediseño hacia la calidad.
Pero este futuro no está garantizado. También es posible que las mismas big tech capturen la IA para reforzar el círculo vicioso de negocio, poder y rentabilidad a corto plazo. La toxicidad organizacional de compañías como Meta, sumada a la presión financiera de Silicon Valley, hace plausible un camino donde la inteligencia artificial sea solo un lubricante de la degradación.
El dilema es ético y político antes que técnico: una IA desplegada con valores de gobernanza responsable —como señalan estudios sobre Responsible AI Governance— puede convertirse en un antídoto. Una IA subordinada a culturas corporativas disfuncionales puede convertirse en una amenaza amplificada.
Entre el antídoto y el veneno
La hipótesis de la desenshittificación es, en el fondo, una invitación a imaginar que la historia digital no está escrita. Internet puede seguir su curso de degradación hasta volverse irreconocible, o reinventarse gracias a una inteligencia artificial que redistribuya capacidades y ponga en jaque a los modelos extractivos. No será la tecnología en sí la que incline la balanza, sino las estructuras éticas, culturales y políticas que la rodean.
La pregunta, entonces, no es si la IA hará a Internet mejor o peor, sino si nosotros, sociedad, instituciones, comunidades, seremos capaces de usar la inteligencia distribuida para deshacer la entropía que hemos tolerado durante demasiado tiempo. Quizá la desenshittificación no sea un milagro técnico, sino una decisión colectiva.