Gobernar la inteligencia artificial desde el riesgo y no desde la experiencia

La aprobación de la RAISE Act en Nueva York se ha leído, en muchos análisis rápidos, como un nuevo capítulo en la carrera por regular la inteligencia artificial. Pero esa lectura se queda corta. No porque la ley sea irrelevante, sino porque su verdadero alcance no está en lo que dice, sino en quién puede ponerla en marcha cuando algo falla. En un momento en el que distintas jurisdicciones ensayan respuestas muy distintas frente a la IA, Nueva York no ha optado por proteger al ciudadano de forma directa, sino por reforzar la capacidad del Estado para no llegar tarde a la catástrofe.
Ese matiz lo cambia todo.
La RAISE Act no nace para ordenar la experiencia cotidiana del usuario, ni para corregir decisiones automatizadas que afectan a la vida diaria. Nace para garantizar que, si un modelo de gran escala genera un riesgo sistémico grave, alguien en la administración lo sepa a tiempo. Es una ley pensada para evitar el apagón institucional, no para reparar el daño individual.
Seguridad sin agencia
El corazón de la RAISE Act es administrativo. Protocolos de seguridad documentados, obligación de reportar incidentes críticos en plazos breves, capacidad de supervisión por parte de una autoridad estatal. Todo gira en torno a un mismo eje: crear canales de información entre las empresas y el regulador.
En ese circuito, el ciudadano no desaparece, pero queda desplazado. No puede activar la norma. No puede exigir explicaciones. No puede recurrir una decisión. Su protección es indirecta y diferida, basada en la esperanza de que la vigilancia institucional funcione y de que el daño que importe sea lo bastante grande como para entrar en la categoría de “incidente crítico”.
La ley asume, de forma implícita, que los riesgos relevantes de la IA son los excepcionales: los que afectan a infraestructuras, a la seguridad nacional, a daños masivos. Pero la mayor parte de la experiencia real de los ciudadanos con sistemas algorítmicos ocurre muy por debajo de ese umbral. En decisiones pequeñas, repetidas, invisibles. En filtros, recomendaciones, exclusiones y modulaciones que no desencadenan alertas, pero sí moldean trayectorias vitales.
Ahí, la RAISE Act no entra.
California y Europa como contraste funcional
Este vacío se entiende mejor cuando se observa qué están haciendo otras jurisdicciones, no para establecer una competición normativa, sino para ver qué tipo de daño consideran relevante.
California, con todas sus ambigüedades, ha optado por una aproximación fragmentaria pero significativa. No intenta gobernar la IA como un todo, sino intervenir en efectos concretos: decisiones automatizadas que afectan al empleo, al crédito o al acceso a servicios; uso de sistemas generativos en contextos sensibles; protección de denunciantes dentro de las propias empresas. En ese esquema, el ciudadano aparece, aunque sea de forma incompleta, como parte del conflicto. Puede impugnar, cuestionar, activar mecanismos. La ley no se activa solo cuando el sistema amenaza con desbordarse, sino cuando produce fricciones en lo cotidiano.
Europa va un paso más allá en esa lógica. Su marco no se centra en evitar el colapso, sino en ordenar la relación entre sistemas y personas. Derechos de información, exigencias de explicabilidad, posibilidad de supervisión humana y de impugnación. No porque el legislador europeo sea moralmente superior, sino porque su tradición jurídica está diseñada para intervenir antes de que el daño se normalice. El ciudadano no es un beneficiario abstracto de la seguridad, sino un sujeto con capacidad de respuesta.
Ese contraste no convierte a la UE ni a California en modelos perfectos. Pero sí muestra algo esencial: hay regulaciones que se preguntan cómo se vive la IA, y otras que solo se preguntan cómo se controla cuando amenaza con desbordarse.
El marco federal y la renuncia explícita al ciudadano
El enfoque federal estadounidense bajo la administración Trump refuerza aún más esta diferencia. Su prioridad no es la reparación ni la agencia del usuario, sino la velocidad, la uniformidad y la eliminación de fricciones regulatorias. La preocupación central no es qué ocurre cuando la IA falla en la vida de una persona, sino qué ocurre cuando los estados interfieren en la expansión tecnológica.
En ese marco, el ciudadano aparece como una figura retórica: alguien que se beneficiará, en abstracto, de la innovación acelerada. Si hay daños, se confía en mecanismos generales posteriores o en la autorregulación del mercado. No hay un interés real en construir vías de activación ciudadana, porque eso introduciría conflicto, litigio y ralentización.
La tensión entre este enfoque y las iniciativas estatales no es técnica. Es política. Se trata de decidir si la IA se gobierna como un asunto de infraestructura nacional o como una relación social que produce ganadores y perdedores concretos.
Fragmentación sin épica
Desde fuera, todo esto se suele describir como fragmentación regulatoria. Pero esa palabra oculta lo más importante. No se están creando “modelos distintos de IA”, sino experiencias distintas de vulnerabilidad y protección. Un ciudadano europeo puede exigir una explicación. Uno californiano puede cuestionar una decisión automatizada concreta. Uno neoyorquino depende de que el problema alcance la categoría de riesgo sistémico. Y en gran parte del territorio federal, simplemente no hay nada que activar.
La fragmentación no es ideológica ni técnica. Es procesal. Determina quién puede hablar, cuándo y ante quién.
Llegar a tiempo no es lo mismo que llegar al ciudadano
Vista así, la RAISE Act cumple su función. Refuerza la capacidad del Estado para enterarse, para vigilar, para no quedar ciego ante sistemas cada vez más complejos. Pero también revela el límite de un enfoque que identifica la gobernanza con la supervisión institucional y no con la experiencia vivida.
En un ecosistema donde la conversación privada ya se ha convertido en infraestructura política, donde la persuasión, la exclusión y la modulación ocurren sin dejar rastro público, una ley que solo organiza alertas administrativas llega siempre después de lo decisivo. Protege al sistema de no reaccionar a tiempo, pero no protege al ciudadano de convivir, día a día, con decisiones que no puede ver ni cuestionar.
La pregunta que deja abierta la RAISE Act no es si la IA está suficientemente controlada, sino quién puede activar una respuesta cuando el daño no es catastrófico, sino normalizado. Y mientras esa activación siga fuera del alcance del ciudadano, la regulación seguirá viviendo más en los despachos que en la vida real.