El Parlamento Europeo ha aprobado la Ley de Inteligencia Artificial (IA), que establece una serie de obligaciones para esta tecnología en función de sus riesgos potenciales y su nivel de impacto. El objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA de alto riesgo. Al mismo tiempo, pretende impulsar la innovación y convertir a Europa en líder del sector.
La Ley de Inteligencia Artificial prohíbe las aplicaciones de esta tecnología que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes del rostro en la red o en grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.
Tampoco permite el reconocimiento de emociones en el lugar de trabajo y centros educativos, los sistemas de puntuación ciudadana, la actuación policial predictiva, la manipulación del comportamiento humano ni la explotación de las vulnerabilidades de las personas.
El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibido, salvo en situaciones muy concretas y bien definidas. Los sistemas biométricos en tiempo real solo se podrán emplear si se cumplen una serie de salvaguardias estrictas, por ejemplo, si el uso se limita a un periodo y lugar específicos y cuenta con una autorización judicial o administrativa previa.
Entre estos casos, pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Por el contrario, recurrir a estos sistemas a posteriori se considera un uso de alto riesgo que requiere autorización judicial al estar vinculado con un delito penal.
Obligaciones para la inteligencia artificial de alto riesgo
Los sistemas de IA de alto riesgo pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho. Algunos ejemplos de usos de alto riesgo son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales, determinados sistemas de las fuerzas de seguridad, la justicia y los procesos democráticos.
Por esta razón, la legislación prevé obligaciones claras para los sistemas de inteligencia artificial de alto riesgo. Deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos, y contar con supervisión humana. Asimismo, la ciudadanía tendrá derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones relacionadas con ellos que afecten a sus derechos.
Sistemas de IA de uso general y modelos en los que se basan
Los sistemas de inteligencia artificial de uso general y los modelos en los que se basan deben cumplir determinados requisitos de transparencia, respetar la legislación de la Unión Europea sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar los modelos.
En cuanto a los modelos más potentes, que podrían plantear riesgos sistémicos, deberán cumplir requisitos adicionales, como realizar evaluaciones, analizar y mitigar los riesgos e informar sobre los incidentes. De la misma manera, las imágenes y contenidos de audio o de vídeo artificiales o manipulados deberán etiquetarse como tales.
Apoyo a la innovación
Adicionalmente, la Ley de IA insta a poner a disposición de las pymes y start-ups innovadoras espacios controlados de pruebas en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la inteligencia artificial antes de su comercialización.
El respaldo de la Eurocámara se da tras el acuerdo alcanzado con los Estados miembros en diciembre de 2023. Ahora, la Ley de IA deberá ser adoptada formalmente por el Consejo Europeo, entrará en vigor a los 20 días de su publicación en el Diario Oficial de la UE y se aplicará al completo 24 meses después.