¿Quién debe tener acceso a la IA? Ciudadanía algorítmica y derecho a experimentar

La decisión de OpenAI de exigir una verificación de identidad gubernamental para acceder a sus modelos más potentes marca un punto de inflexión. No se trata solo de una medida técnica o de seguridad: estamos ante una redefinición silenciosa de quién puede experimentar con inteligencia artificial avanzada. A partir de ahora, cada ID podrá ser utilizado solo una vez por organización cada 90 días. Esto introduce una barrera temporal y legal que limita, en la práctica, el acceso de actores pequeños, comunidades académicas o colectivos no institucionales. La pregunta que se desliza tras esta decisión es inquietante: ¿el acceso a la IA empieza a ser un privilegio regulado por actores privados?
En un contexto donde estas tecnologías impactan transversalmente en educación, empleo, participación social y salud, limitar su uso plantea un dilema ético. Según la nueva Ley de Inteligencia Artificial de la UE, todo sistema con impacto sustancial en derechos fundamentales debe estar sujeto a control democrático. ¿Es entonces legítimo que el acceso a estos modelos lo determine una empresa? ¿Dónde termina la política interna y dónde empieza el debate público?
Democratizar o custodiar: el dilema ético del acceso
El argumento de OpenAI se sustenta en una lógica comprensible: contener el abuso, evitar usos maliciosos y proteger la integridad de modelos que ya muestran capacidades sin precedentes. Pero este enfoque introduce una tensión central en la gobernanza tecnológica contemporánea: ¿es justificable limitar el acceso por precaución, incluso si ello restringe la capacidad de innovación y experimentación de actores emergentes? Las restricciones no afectan por igual a todos los actores; grandes corporaciones pueden sortearlas con acuerdos empresariales, mientras que investigadores independientes y startups locales ven restringida su capacidad de prueba y aprendizaje.
Esta desigualdad de acceso no solo ralentiza la diversidad de innovación, sino que plantea una cuestión política de fondo: ¿puede el acceso a tecnologías que transforman la economía y el conocimiento seguir siendo un asunto gestionado exclusivamente desde la lógica del mercado?
La robótica como frontera física de la gobernanza
Frente a este endurecimiento del acceso, otras iniciativas adoptan un enfoque opuesto. Hugging Face, conocido por su apuesta por la IA de código abierto, ha adquirido recientemente Pollen Robotics y anunciado que abrirá el hardware y el software de su robot Reachy 2. Esta decisión traslada la filosofía open source al terreno físico, proponiendo un nuevo modelo de innovación: colaborativo, distribuido y transparente.
La robótica, hasta ahora dominada por laboratorios cerrados y patentes restrictivas, encuentra aquí un contramodelo que no solo acelera la innovación en sectores como logística o asistencia personal, sino que también redefine las reglas del juego. Democratizar el acceso a tecnologías físicas implica abrir un nuevo debate sobre ética, propiedad y responsabilidad compartida. Si los modelos cerrados prometen seguridad a costa de control, los abiertos invitan a una participación más amplia, aunque con mayores incertidumbres. ¿Es posible articular una gobernanza que no sacrifique ni la seguridad ni la inclusión?
Ciudadanía algorítmica: ¿quién decide el futuro de la inteligencia artificial?
Este conflicto entre control y apertura revela una verdad incómoda: la IA ya no es una herramienta neutral, sino una infraestructura que condiciona derechos, oportunidades y participación social. En este contexto, el acceso a sus capacidades más avanzadas no puede seguir siendo definido exclusivamente por la voluntad de actores privados. Comienza a emerger un nuevo concepto: el de ciudadanía algorítmica. Esta idea sugiere que, al igual que otros servicios esenciales, el acceso a ciertas tecnologías debería ser garantizado bajo principios de equidad, transparencia y supervisión pública.
La Ley de IA de la UE va en esta dirección al exigir evaluaciones de impacto sobre derechos fundamentales en sistemas de alto riesgo, pero aún queda lejos de asegurar una gobernanza verdaderamente inclusiva. Si la inteligencia artificial va a influir en nuestras vidas cotidianas —y lo hará—, entonces la discusión sobre su acceso, sus límites y sus custodios debe salir de los despachos privados y abrirse al debate social. En última instancia, no hablamos solo de innovación, sino de quién tiene derecho a formar parte del futuro que estamos construyendo.