En diciembre de 2023, el Consejo y el Parlamento Europeo alcanzaron un acuerdo provisional sobre el que fue el primer Reglamento de Inteligencia Artificial (IA). Esta nueva ley de IA tiene su origen en la propuesta de la Comisión Europea del 2021 para crear el primer marco regulador europeo para la IA.
La ley de IA de la Unión Europea (UE) representa un hito en la regulación mundial de la IA, posicionando a Europa como líder en este campo. Esta legislación establece requisitos claros y obligaciones para desarrolladores y proveedores de IA, al tiempo que busca reducir las cargas administrativas para las empresas de este sector, especialmente las pequeñas y medianas (pymes).
La ley tiene como objetivo principalgarantizar la fiabilidad y seguridad de la IA que vaya a ser introducida en el mercado europeo, protegiendo así los derechos fundamentales de las personas y empresas. También busca impulsar la inversión e innovación en IA a nivel europeo.
¿Por qué regular la Inteligencia Artificial y cómo hacerlo?
La ley surge ante la necesidad de abordar los riesgos específicos que plantea la propia IA, como la falta de transparencia en las decisiones de sus sistemas, que pueden llevar a resultados injustos o incluso perjudiciales en casi todos los ámbitos cotidianos. Por ello, las normas propuestas buscan prohibir prácticas de IA que presenten riesgos inaceptables, establecer requisitos claros para aplicaciones de alto riesgo y definir obligaciones para implementadores y proveedores de dichas aplicaciones. Además, se exige una evaluación de conformidad antes de poner en servicio un sistema de IA y se establece una estructura de gobernanza a escala europea y nacional.
La ley se basa en el enfoque del riesgo y establece tres categorías para las aplicaciones de IA:
En primer lugar, prohíbe completamente las aplicaciones y sistemas que presenten un riesgo considerado inaceptable, como la manipulación cognitiva conductual o el rastreo indiscriminado de imágenes faciales tomadas de internet, entre otros.
En segundo lugar, las aplicaciones consideradas de alto riesgo, como un escáner de CV para clasificar solicitantes de empleo, están sujetas a requisitos legales específicos.
Por último, las aplicaciones que no estén prohibidas explícitamente ni clasificadas como de alto riesgo quedan en gran medida sin regulación.
De este modo, se establece una serie de estándares de protección que determinarán cuándo los sistemas o aplicaciones de IA pueden representar un riesgo para la sociedad. Los sistemas que presenten riesgos significativos estarán sujetos a una serie de requisitos y obligaciones para poder ser comercializados en la UE. Por tanto, cuanto mayor sea el riesgo que conlleva el uso de cierta IA para los derechos fundamentales, más difícil será el acceso de la misma al mercado europeo.
Es importante aclarar que esta ley de IA no tiene un carácter supranacional y por ende no se aplicará a ámbitos fuera del derecho de la UE y no afectará a las competencias de los Estados miembros en políticas nacionales sensibles, como por ejemplo la de seguridad. Con todo, lógicamente se necesita un órgano coordinador y supervisor a nivel europeo. La Comisión Europea ha establecido para ello una nueva entidad reguladora en este ámbito, la Oficina Europea de IA.
Esta Oficina será responsable de supervisar y hacer cumplir los requisitos de la Ley de IA en los 27 Estados miembros de la UE.
Reacciones a la Ley, dentro y fuera de Europa
A pesar de que Bruselas ha sido elogiada por ser la primera en el mundo en aprobar una regulación que aborda los riesgos asociados con la IA, se ha señalado un aspecto crítico de la ley: los monopolios tecnológicos, más bien, la no mención de los mismos. La ley no aborda adecuadamente la influencia que estos pocos gigantes del sector de la IA tienen actualmente en nuestras vidas, economías y democracias.
Otro punto importante es la perspectiva de las pymes europeas en esta cuestión y su competitividad en el mercado, ya que esta ley podría representar una carga adicional de trabajo para ellas.
Como consecuencia de la imposición de obligaciones sustanciales a todas las empresas que utilicen o desarrollen IA, aumentan las barreras regulatorias para las empresas europeas, favoreciendo así a la competencia de Estados Unidos (EE.UU) y China y dificultando el surgimiento de líderes europeos en IA.
Partiendo del mismo enfoque del riesgo, como la ley de la UE, el presidente estadounidense Joe Biden emitió en octubre de 2023 una orden ejecutiva sobre IA, que exigía mayor transparencia y un nuevo marco normativo en este ámbito. La orden requiere que los productos de IA más avanzados, que puedan representar un riesgo para los usuarios, realicen pruebas de seguridad y notifiquen los resultados al gobierno antes de su lanzamiento al mercado. Además, serán sometidos a una supervisión constante para evaluar sus riesgos. Sin embargo, la regulación de la IA en EE.UU queda todavía en gran medida, a diferencia de Europa, relegada a las mismas empresas desarrolladoras. Por otro lado, los siguientes pasos dependen del resultado de las próximas elecciones en noviembre de 2024.
En junio de 2023, el Consejo de Estado de China anunció que en su agenda legislativa se contempla una ley de IA. Similar al caso estadounidense, se publicaron más tarde unas ‘sugerencias de expertos’ sobre la nueva normativa, exigiendo un informe de responsabilidad social anual y fijando una lista negativa de áreas de IA con mayores riesgos. Cualquier modelo funcional de IA debe ser registrado ante el gobierno antes de darse a conocer al consumidor. En cuanto a competitividad, el mercado nacional seguirá protegiendo a las empresas chinas de IA, otorgándole ventajas estratégicas frente a los competidores occidentales.
Queda por ver cómo la UE seguirá equilibrando la balanza de la IA entre la protección de los derechos de los usuarios y el posicionamiento competitivo de las empresas desarrolladoras europeas.