El Consejo Europeo ha aprobado definitivamente la Ley de Inteligencia Artificial (IA), dirigida a armonizar las normas en este ámbito siguiendo un enfoque basado en el riesgo. El objetivo es fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables en todo el mercado único de la UE por parte de actores públicos y privados, así como garantizar el respeto de los derechos fundamentales de la ciudadanía y estimular la inversión y la innovación.
La Ley de IA de la Unión Europea se aplica solo a áreas dentro de la legislación europea y contempla exenciones, como por ejemplo, para los sistemas utilizados exclusivamente con fines militares, de defensa y de investigación.
Esta legislación clasifica diferentes tipos de inteligencia artificial según el riesgo que presentan, lo que significa que cuanto mayor es el riesgo de causar daño a la sociedad, más estrictas son las normas. Los sistemas con un riesgo limitado estarán sujetos a obligaciones de transparencia leves, mientras que aquellos de alto riesgo estarán sometidos a un conjunto de requisitos y obligaciones para obtener acceso al mercado europeo.
Por otro lado, prohíbe los sistemas de manipulación cognitivo-conductual y puntuación social, además del uso de la IA para la vigilancia policial predictiva mediante datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual.
La Ley de IA también aborda el uso de modelos de inteligencia artificial de propósito general. Los que no presenten riesgos sistémicos estarán sujetos a algunos requisitos limitados, por ejemplo, con respecto a la transparencia; pero aquellos con riesgos sistémicos tendrán que cumplir con reglas más estrictas.
Nuevos órganos de gobierno
Para garantizar una aplicación adecuada, se crean cuatro órganos de gobierno: la Oficina de IA, un panel científico de expertos independientes, la Junta de IA con representantes de los Estados miembros y un foro consultivo.
Las penalizaciones por infracciones se fijan como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o una cantidad predeterminada, la que sea mayor. Las pymes y empresas de nueva creación están sujetas a multas administrativas proporcionales.
Entidades que prestan servicios públicos
Para que las entidades que prestan servicios públicos implementen un sistema de inteligencia artificial de alto riesgo, tendrán que evaluar previamente el impacto sobre los derechos fundamentales.
Los sistemas de IA de alto riesgo y los usuarios que sean entidades públicas deberán estar registrados en la base de datos de la UE para sistemas de IA de alto riesgo. Por su parte, los usuarios de sistemas de reconocimiento de emociones tendrán que informar a las personas cuando están expuestas a los mismos.
Impulso a la innovación
La Ley de Inteligencia Artificial proporciona un marco legal favorable a la innovación y tiene por objeto promover el aprendizaje regulatorio basado en la evidencia. Así, contempla que los sandboxes regulatorios de IA -que ofrecen un entorno controlado para el desarrollo, prueba y validación de sistemas de IA innovadores- también deben permitir ensayos en condiciones del mundo real.
Tras ser firmada por el Parlamento Europeo y el Consejo, la Ley de IA se publicará en el Diario Oficial de la UE en los próximos días y entrará en vigor 20 días después. Se aplicará pasados dos años de su entrada en vigor, a excepción de algunas disposiciones específicas.