Casi no ha echado a andar y ya se enfrenta a intentos de suavizarla. La ley europea de inteligencia artificial, que vio la luz en la anterior legislatura del Parlamento Europeo después de unas intensas negociaciones entre la Eurocámara, el Consejo y la Comisión, está en el punto de mira para someterla a una revisión que rebaje el control que ejercerá sobre las compañías que desarrollan la IA.
Durante las negociaciones para el acuerdo de Gobierno en Alemania, los demócrata cristianos de la CDU/CSU reclamaron que se revise la ley de IA “para reducir las cargas sobre la economía”. La parte socialdemócrata (SPD) mantiene la exigencia de responsabilidad en el uso de esta tecnología.
El último borrador del código de buenas prácticas para la norma suaviza la exigencia a las compañías
El movimiento de alerta más importante lo han dado los legisladores que negociaron el texto final de la ley, que enviaron la semana pasada una carta a la vicepresidenta de la Comisión Europea para la Soberanía Tecnológica, la Seguridad y la Democracia, Henna Virkkunen, alarmados por el último borrador del futuro código de buenas prácticas de las empresas para la aplicación de la ley.
En esa propuesta de código de buenas prácticas, la evaluación y mitigación de riesgos para los derechos fundamentales y la democracia ha pasado a ser “totalmente voluntaria para los proveedores de modelos de IA de propósito general con riesgo sistémico”, según alertan en su carta los legisladores que alcanzaron el pacto final. “Es peligroso, antidemocrático y crea inseguridad jurídica reinterpretar completamente y reducir un texto legal que los colegisladores acordaron, a través de un código de prácticas”, protestan los firmantes de la carta. Entre ellos se encuentra Carme Artigas, la ex secretaria de Estado para la Digitalización y la Inteligencia Artificial durante la negociación del texto legal.
Los signatarios afirman que la última versión del código de buenas prácticas debería ser “claro, concreto y sólido”, así como reflejar “los principios fundamentales” de la ley de IA para proteger a la sociedad europea “contra los riesgos sistémicos para la salud, la seguridad, los derechos fundamentales y la democracia”. Por eso reclaman a la vicepresidenta Virkkunen el código de buenas prácticas que no lo haga.
Otra señal de que la ley está en cierto proceso revisionista lo dio el mes pasado la directora de la Oficina de IA, Lucilla Sioli, que comentó en una mesa redonda que la Comisió espera tener a finales del 2025 una evaluación de impacto de la ley. En lugar de “una gran revisión”, explicó que se iba a examinar cómo simplificar el cumplimiento de la ley para las pymes, aunque de momento nadie en Bruselas descarta que la ley de IA vaya a ser revisada.
Un reglamento basado en riesgos
La Ley Europea de IA clasifica la IA en función de su riesgo Se prohíben los riesgos inaceptables, como los sistemas de puntuación social. También se someten a control los de riesgo limitado, sujetos a obligaciones de transparencia más ligeras. El riesgo mínimo, en el que se enmarcan la mayoría de las apps de IA disponibles en la UE, no está regulado.
La mayoría de las obligaciones de la ley recaen en los proveedores de sistemas de IA de alto riesgo. Las empresas deben proporcionar documentación técnica, instrucciones de uso, cumplir la directiva sobre derechos de autor y publicar un resumen sobre los contenidos utilizados para su formación.
En la conferencia mundial sobre inteligencia artificial que el presidente francés, Emmanuel Macron, organizó en París en febrero pasado, ya se visualizó una postura que tenga en cuenta a las empresas. Según la plataforma jurídica MLex, Francia pretende promueve un proceso de simplificación que haga un balance entre “la protección de las libertades fundamentales, el desarrollo de la IA” y una “aplicación equilibrada de la protección de los derechos de autor al desarrollo de la IA generativa”.
El mismo medio apuntó que en Francia hay ahora una división entre el ministerio de cultura, “tradicionalmente cercano a los intereses de los titulares de derechos, y el ministerio de economía, que está tratando de promover empresas emergentes de IA como Mistral AI”.