|

Ley de IA de la UE: Entre la protección de derechos de autor y las amenazas a la innovación y la libre expresión

La Ley de IA de la Unión Europea ha sido objeto de un intenso debate en la industria creativa y en el ámbito de la innovación tecnológica. Aunque la ley busca proteger a los creadores frente al uso de sus obras en modelos generativos de inteligencia artificial, críticos advierten que las restricciones propuestas podrían frenar la innovación, limitar la competencia y restringir la libertad de expresión. ¿Está la UE logrando el equilibrio adecuado o se está sacrificando el progreso en nombre de los derechos de autor?

Una ley con buenas intenciones, pero con riesgos significativos

Según un artículo publicado en The Guardian, Axel Voss, uno de los arquitectos de la ley de derechos de autor de la UE, advirtió sobre un vacío legal en la Ley de IA que podría dejar desprotegidos a los creativos frente a los modelos generativos de inteligencia artificial.”

La Ley de IA de la UE establece varias disposiciones para proteger los derechos de autor en el contexto de los modelos generativos de IA. Entre las medidas propuestas, destacan:

  • Política interna de derechos de autor: Los desarrolladores de modelos de IA deben implementar políticas que garanticen el cumplimiento de las leyes europeas de derechos de autor, asegurando responsabilidades claras y la debida diligencia con las partes colaboradoras.
  • Transparencia y divulgación: Se requiere que las empresas publiquen resúmenes detallados del material utilizado para entrenar sus modelos de IA. Sin embargo, estos resúmenes no siempre son lo suficientemente específicos para permitir que los creadores identifiquen si sus obras han sido utilizadas sin su consentimiento.
  • Respeto a las reservas de derechos: Los proveedores de IA deben obtener autorizaciones explícitas para utilizar contenido protegido cuando los creadores hayan ejercido su derecho de exclusión (opt-out).
  • Etiquetado de contenido generado por IA: En ciertos contextos, el contenido creado automáticamente debe ser etiquetado para diferenciarlo del trabajo humano.

Aunque estas medidas parecen ofrecer un marco sólido para la protección de los creadores, en la práctica presentan desafíos significativos. Para muchos artistas independientes, llevar a las grandes tecnológicas a los tribunales es una opción inviable debido a los elevados costos y riesgos legales. Además, la Comisión Europea no ha aclarado si se presentará una nueva legislación específica para abordar estas lagunas legales.

¿Protección de derechos o freno a la innovación?

Una crítica importante a la Ley de IA de la UE es que podría hacer que la investigación valiosa basada en machine learning (ML) y text and data mining (TDM) se vuelva excesivamente complicada y costosa, si no imposible. Durante la última década, el uso justo (fair use) ha permitido avances significativos en diversos campos gracias a la minería de datos, pero imponer una licencia para cada uso podría frenar este tipo de investigaciones.

En países donde la ley protege la investigación de TDM frente a las restricciones de derechos de autor, los estudios basados en estas metodologías son más comunes. Por el contrario, en jurisdicciones con mayores limitaciones, la investigación científica se ve obstaculizada. Esto se debe a que identificar y negociar con millones de propietarios de derechos para analizar grandes volúmenes de datos, como textos en internet, es prácticamente inviable.

El impacto potencial va más allá de la investigación académica. Herramientas como AlphaFold, que utilizan IA para comprender procesos biológicos y desarrollar medicamentos, dependen de la capacidad de acceder libremente a grandes conjuntos de datos. Si se requiere una licencia para cada pieza de información utilizada, desarrollos cruciales en medicina, astronomía y otros campos científicos podrían verse seriamente comprometidos.

Competencia en riesgo: ¿Un monopolio para las grandes tecnológicas?

Otro aspecto clave es el impacto de la ley en la competencia dentro del mercado de la IA. Si los desarrolladores necesitan autorización de los titulares de derechos para entrenar modelos con obras protegidas, solo las grandes empresas tecnológicas, que ya poseen enormes bibliotecas de contenido o tienen los recursos para negociar licencias, podrán competir en este espacio.

El caso de Thomson Reuters v. Ross Intelligence es un ejemplo claro de este riesgo. Ross Intelligence, una startup que intentaba innovar en el sector de la investigación legal mediante IA, fue demandada por Westlaw por intentar entrenar su modelo con resúmenes de opiniones judiciales de dominio público. La demanda finalmente llevó a la quiebra a la startup, eliminando una posible competencia y demostrando cómo el uso de los derechos de autor puede convertirse en una herramienta para preservar monopolios.

De manera similar, Getty Images, tras demandar a Stable Diffusion por supuestas violaciones de derechos de autor en su proceso de entrenamiento, lanzó su propio generador de imágenes con IA. Esto sugiere que la normativa podría no estar beneficiando a los artistas y creadores individuales, sino consolidando el poder de las grandes corporaciones que ya dominan el mercado.

¿Un obstáculo para la libertad de expresión?

Además de la innovación y la competencia, la ley podría tener implicaciones serias para la libertad de expresión. Las herramientas de IA generativa, como los generadores de texto e imágenes, permiten a personas sin habilidades artísticas profesionales crear contenido y expresarse de nuevas maneras. Limitar los materiales que pueden utilizarse para entrenar estas herramientas reduciría su utilidad y, en última instancia, restringiría las formas en que las personas pueden expresar sus ideas.

Artistas digitales como Nettrice Gaskins han destacado cómo la IA puede ayudar a revitalizar tradiciones artísticas históricas, como el hip hop y el collage, que se basan en la mezcla y la reinterpretación de obras preexistentes. Al limitar el uso de obras protegidas para entrenar modelos de IA, se corre el riesgo de reforzar las barreras que históricamente han afectado a estas formas de arte, en particular dentro de comunidades marginadas.

Conclusión: Un equilibrio delicado pero necesario

La Ley de IA de la UE plantea un dilema complejo. Por un lado, es fundamental proteger a los creadores y garantizar que sus obras no sean explotadas sin compensación. Por otro, imponer restricciones excesivas al uso de datos para entrenar IA podría tener consecuencias negativas para la innovación, la competencia y la libertad de expresión.

En lugar de expandir los derechos de autor, tal vez sea necesario explorar alternativas más equilibradas, como fortalecer las leyes antimonopolio, garantizar una mayor transparencia en las prácticas de las grandes tecnológicas y promover políticas específicas que aborden los verdaderos riesgos de la IA, desde la privacidad hasta la desinformación.

El desafío para la UE será encontrar un camino intermedio que permita seguir avanzando tecnológicamente sin sacrificar los derechos de los creativos ni sofocar el potencial transformador de la inteligencia artificial.

Publicaciones Similares