|

IA y poder soberano: ¿quién legisla en la era del algoritmo?

Durante décadas, la inteligencia artificial fue vista como una herramienta destinada a optimizar procesos y liberar recursos humanos. Sin embargo, su integración progresiva en funciones de gobierno revela una transformación más profunda: la IA ya no solo apoya, sino que empieza a sustituir al juicio político humano. Esta transición plantea interrogantes esenciales sobre soberanía, legitimidad y poder.

La automatización de decisiones normativas, judiciales o militares expone una grieta en los sistemas democráticos: su incapacidad para absorber estas innovaciones sin comprometer los principios de representación, deliberación y control ciudadano. Así, lo que comenzó como una promesa de eficiencia puede acabar desplazando a las instituciones tradicionales sin el consenso necesario para legitimar ese cambio estructural.

El caso de los Emiratos: Legislación algorítmica sin contrapesos

En los Emiratos Árabes Unidos se desarrolla un ambicioso experimento: utilizar inteligencia artificial para redactar leyes a partir de un corpus masivo de legislación existente, jurisprudencia y datos públicos. El objetivo oficial es reducir en un 70% el tiempo necesario para elaborar normativas. Sin embargo, este sistema no opera en un vacío técnico, sino en un entorno político centralizado, donde el poder legislativo no cuenta con autonomía real ni contrapesos efectivos.

La concentración del poder normativo en una infraestructura digital opaca, sin escrutinio parlamentario ni participación ciudadana, redefine de facto el ejercicio de la soberanía. ¿Puede una IA, por muy sofisticada que sea, interpretar el espíritu de la ley, o simplemente replicar su letra? Esta distinción es crucial, ya que legislar no es solo aplicar lógica jurídica, sino interpretar contextos, valores y consecuencias sociales.

Golpes de Estado 2.0: la IA como arma de control

Un informe especializado en seguridad advierte que la IA podría facilitar futuras tomas de poder sin necesidad de violencia convencional. Los algoritmos no solo permiten automatizar sistemas de defensa o vigilancia, sino también ejecutar estrategias de manipulación masiva a través de redes sociales, inteligencia predictiva o desinformación. En este escenario, un “golpe de Estado algorítmico” podría desmantelar estructuras democráticas sin disparar una sola bala.

Más inquietante aún es la posibilidad de que actores bienintencionados —con el pretexto de prevenir crisis— adopten medidas autoritarias impulsadas por modelos predictivos, eliminando disidencias o neutralizando opositores antes de que representen una amenaza real. La lógica preventiva de la IA, en ausencia de legitimidad democrática, convierte a estos sistemas en herramientas de poder concentrado y opaco.

La fragilidad de los sistemas democráticos ante la IA

La mayoría de los Estados no cuenta hoy con mecanismos institucionales robustos para regular el uso político de la inteligencia artificial. Esta laguna legal y ética permite que sistemas opacos tomen decisiones de alto impacto sin supervisión humana significativa. El llamado “efecto caja negra” —la imposibilidad de comprender cómo se llegó a una conclusión algorítmica— complica no solo la auditoría técnica, sino también la atribución de responsabilidades legales.

¿Quién responde si una IA ordena la detención de un inocente o redacta una ley que vulnera derechos fundamentales? Casos recientes, como sistemas de asignación de recursos sociales que discriminaron a ciertos grupos por errores de entrenamiento, muestran que no se trata de una amenaza teórica, sino de una realidad presente. En este contexto, la delegación de decisiones soberanas a sistemas autónomos revela la debilidad estructural de las democracias contemporáneas.

Hacia una gobernanza algorítmica responsable

Frente a esta transformación, se vuelve urgente establecer un marco de gobernanza que regule con rigor el uso de la IA en funciones críticas del Estado. Tal y como aludíamos en el artículo de ayer, el estudio de Papagiannidis, Mikalef y Conboy propone una aproximación integral basada en principios como legalidad, equidad, robustez técnica, transparencia y supervisión humana.

No basta con diseñar buenas tecnologías: es necesario insertarlas en estructuras institucionales que garanticen responsabilidad, trazabilidad y control democrático. Esto implica auditorías obligatorias, participación ciudadana informada y control parlamentario real sobre las infraestructuras algorítmicas. También se requieren normas internacionales que definan límites claros al uso militar, legislativo o judicial de la IA. Sin este control exógeno, los algoritmos pueden actuar como nuevas formas de poder soberano, sin rostro, sin límites y sin legitimidad.

Publicaciones Similares