El algoritmo y la culpa: un ensayo sobre responsabilidad en tiempos de IA

Durante años, la inteligencia artificial se convirtió en el escaparate del progreso técnico. Todo se medía en velocidad, en escala y en asombro. Pero la euforia por la eficiencia ha dejado un saldo moral difícil de ignorar. Lo que comenzó como una carrera por construir máquinas más inteligentes se ha transformado en un experimento sobre los límites de la responsabilidad humana. Hoy hablaré de dos episodios sintomáticos, OpenAI y Wikipedia, que no son aislados: son dos ejemplos claros de un modelo que ha aprendido a avanzar sin preguntarse si debía hacerlo.
La ética, relegada a la categoría de “tema incómodo”, regresa ahora como exigencia. No porque haya cambiado el discurso, sino porque ha cambiado la confianza. Cada nuevo anuncio, cada supuesto avance, se mide menos por su impacto técnico y más por su credibilidad. Y en la era de la desinformación automatizada, la credibilidad es el último recurso que una tecnología puede perder.
Del poder al descrédito: el retorno de la rendición de cuentas
Hace un año, el debate giraba en torno al poder de las grandes tecnológicas. Hoy, el tema es su fragilidad. La promesa de una IA imparcial, verificable y responsable se desvanece cuando las compañías que la desarrollan actúan con opacidad, manipulan la narrativa científica o diluyen su rendición de cuentas en comunicados ambiguos. Lo que antes se vendía como progreso inevitable empieza a parecer una forma de simulación.
El patrón se repite: entrenar primero, disculparse después. Publicar resultados antes de revisarlos. Medir impacto en titulares, no en verificaciones por pares. El marketing ha invadido el terreno de la ciencia, y la reputación —ese activo que ya era el único límite funcional— comienza a erosionarse. No por campañas mediáticas, sino por pérdida de confianza.
El nuevo ciclo de la IA no se define por el avance técnico, sino por la factura moral de su propio éxito. Y esa factura, tarde o temprano, siempre se cobra.
GPT-5 y el espejismo del descubrimiento: la ciencia bajo marketing
El reciente caso de los “problemas de Erdős” es un ejemplo revelador. OpenAI insinuó que GPT-5 había resuelto cuestiones matemáticas inéditas. Las réplicas no tardaron en llegar: matemáticos, científicos y competidores industriales desmintieron la afirmación. El hallazgo resultó ser un espejismo publicitario. Pero el daño no fue técnico, sino simbólico.
El incidente mostró hasta qué punto la frontera entre comunicación científica y estrategia comercial se ha vuelto difusa. Cuando un modelo de lenguaje se anuncia como “descubridor” y no como asistente, la lógica de la investigación se sustituye por la del espectáculo. Y en ese desplazamiento, la ciencia deja de ser comunidad para convertirse en marca.
El problema no es solo la exageración. Es la pérdida de legitimidad del conocimiento mediado por intereses privados. Si el valor de un avance depende del relato de una empresa, la ética científica deja de ser un marco de referencia y pasa a percibirse como un obstáculo. Lo que antes se llamaba rigor ahora se interpreta como freno a la narrativa del éxito.
Wikipedia y la economía sin clics: conocimiento sin comunidad
En paralelo, otro frente menos visible se desmorona: el de la web abierta. Wikipedia ha registrado una caída del 8 % en tráfico humano tras hacerse pública la magnitud de la actividad de los bots. A primera vista, podría parecer un dato menor. Pero detrás hay un cambio estructural.
Los modelos generativos —de Google a OpenAI— ya no necesitan enviar tráfico a las fuentes originales. Extraen, sintetizan y devuelven respuestas completas sin clics de retorno. El conocimiento sigue circulando, pero su ecosistema de sostenimiento se vacía. Lo que antes era una cadena de colaboración se convierte en una red de extracción.
La paradoja es contundente: cuanto más accesible se vuelve la información, menos sostenible se hace su origen. La IA se alimenta de una inteligencia colectiva que no retribuye. Y sin ese flujo de reciprocidad, la idea misma de conocimiento compartido entra en crisis.
Wikipedia es el ejemplo visible de un proceso más amplio: el desmantelamiento ético del saber común. Lo que la IA toma sin permiso no es solo texto, sino el trabajo invisible de miles de personas que mantenían viva la infraestructura de la verdad.
Ética como arquitectura, no como ornamento
Durante años, la ética se trató como una nota al pie: un requisito formal, una mesa redonda, una promesa de transparencia. Pero la ética no es un adorno regulatorio; es la estructura que permite que el conocimiento sea confiable.
El problema no es la falta de códigos, sino su desconexión de la práctica. Las empresas declaran principios mientras entrenan modelos con datos que vulneran derechos. Publican informes de responsabilidad mientras minimizan el escrutinio. Esa incoherencia erosiona la legitimidad no solo de las instituciones, sino del propio lenguaje con que justifican su autoridad.
La alternativa consiste en integrar la ética como parte de la infraestructura operativa. No como discurso, sino como arquitectura. Laboratorios que someten sus comunicados a revisión científica antes de publicarlos. Plataformas que declaran con precisión las fuentes de sus datos. Sistemas de compensación que retribuyen a los sitios y autores que nutren los modelos.
No se trata de ralentizar la innovación, sino de dotarla de un suelo estable. Una inteligencia verdaderamente colectiva no puede edificarse sobre un extractivismo sin retorno.
La verdad como contrato social
La ética no es una limitación técnica ni un obstáculo al progreso. Es el contrato que sostiene la confianza pública. Cuando se rompe, lo que desaparece no es la innovación, sino su legitimidad.
El desafío no consiste en diseñar máquinas más avanzadas, sino en construir sistemas que merezcan ser creídos. La verdad, en este contexto, ya no es una cuestión de precisión, sino de relación: quién la comunica, con qué responsabilidad y a cambio de qué.
Quizá esa sea la lección de este tiempo: la inteligencia artificial no colapsará por falta de poder, sino por exceso de impunidad. Solo cuando las instituciones tecnológicas comprendan que la credibilidad es su nuevo capital ético —no un recurso de marketing— podrán recuperar el vínculo con la sociedad que las observa con creciente desconfianza.
La verdad, al fin y al cabo, no se automatiza. Se construye. Y ese proceso, inevitablemente, vuelve a ser humano.