Entra en vigor la Ley de Inteligencia Artificial de la UE para garantizar la seguridad e impulsar la innovación

Entra en vigor la Ley de IA de la Unión Europea, que garantiza la seguridad e impulsa la innovación

La Comisión Europea ha anunciado que la Ley de Inteligencia Artificial (IA) de la UE ha entrado en vigor el jueves 1 de agosto. Esta legislación integral está diseñada para garantizar una IA confiable en Europa, con salvaguardas para proteger los derechos fundamentales de la ciudadanía, y establecer un mercado interior armonizado para la IA, fomentando la adopción de esta tecnología y creando un entorno propicio para la innovación y la inversión.

La Ley de Inteligencia Artificial de la Unión Europea ha entrado en vigor el 1 de agosto de 2024.

La Ley de Inteligencia Artificial de la Unión Europea clasifica diferentes tipos de IA según el riesgo que presentan. La IA con un riesgo mínimo para los derechos y la seguridad de la ciudadanía engloba a la mayoría de los sistemas, como los de recomendación o los filtros de spam. La nueva legislación no establece obligaciones para ellos, aunque las empresas pueden adoptar códigos de conducta de manera voluntaria.

En cuanto a los sistemas de IA con riesgo específico de transparencia, como los chatbots, deben informar claramente de que se está interactuando con una máquina. Determinados contenidos generados por IA, incluidos los deepfakes, han de etiquetarse como tal, y se debe informar a los usuarios cuando se utilizan sistemas de categorización biométrica o de reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de forma que el contenido sintético de audio, vídeo, texto o imagen esté en un formato legible por máquina y sea detectable como generado o manipulado artificialmente.

Por su parte, la IA de alto riesgo debe cumplir con requisitos estrictos referentes a sistemas de mitigación de riesgos, conjuntos de datos de alta calidad, registro de actividades, documentación detallada, información clara sobre los usuarios, supervisión humana y un alto nivel de robustez, precisión y ciberseguridad. Los entornos de pruebas regulatorios facilitarán la innovación responsable y el desarrollo de sistemas de IA que cumplan con la normativa.

Se consideran de alto riesgo los sistemas de inteligencia artificial utilizados para la contratación, para evaluar quién tiene derecho a obtener un préstamo o para operar robots autónomos.

Prohibición de algunos sistemas y usos de la IA

La Ley de IA prohíbe los sistemas que se consideran una clara amenaza para los derechos fundamentales de las personas. Son aquellos que manipulan el comportamiento humano para burlar la libre voluntad de los usuarios, los que permiten la puntuación social por parte de gobiernos o empresas y ciertas aplicaciones de vigilancia predictiva.

Igualmente, prohíbe algunos usos de los sistemas biométricos, por ejemplo, el reconocimiento de emociones en el lugar de trabajo y la categorización de personas o identificación biométrica en remoto en tiempo real para fines de aplicación de la ley en espacios de acceso público (con algunas excepciones).

La Ley de Inteligencia Artificial también introduce normas para los denominados modelos de IA de propósito general, de gran capacidad y diseñados para realizar una amplia variedad de tareas, como generar texto similar al humano, y que se utilizan cada vez más como componentes de aplicaciones de IA. La nueva legislación garantizará la transparencia a lo largo de la cadena de valor y abordará los posibles riesgos sistémicos.

Supervisión del cumplimiento de las normas

Los Estados miembros de la UE tienen hasta el 2 de agosto de 2025 para designar a las autoridades nacionales competentes, que supervisarán la aplicación de las normas sobre inteligencia artificial y vigilarán el mercado. La Oficina de IA de la Comisión Europea será el principal organismo de aplicación de la Ley de IA a nivel europeo y la encargada de hacer cumplir las normas sobre modelos de IA de propósito general.

El Comité Europeo de Inteligencia Artificial garantizará una aplicación uniforme en todos los Estados miembros y actuará como el principal organismo de cooperación entre éstos y la Comisión. Por su parte, un grupo científico de expertos independientes ofrecerá asesoramiento técnico y aportaciones sobre la aplicación, así como podrá enviar alertas a la Oficina de IA sobre los riesgos asociados a los modelos de IA de propósito general. La Oficina de IA también podrá recibir orientación de un foro consultivo, compuesto por un conjunto de partes interesadas.

Aplicación de la Ley de Inteligencia Artificial

La mayoría de las normas de la Ley de IA comenzarán a aplicarse el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA considerados un riesgo inaceptable se aplicarán tras seis meses y las normas para los modelos de IA de propósito general se aplicarán después de 12 meses.

La Comisión Europea ha puesto en marcha el Pacto de la IA, que invita a los desarrolladores de IA a adoptar voluntariamente las obligaciones clave antes de que venzan los plazos legales. Además, está elaborando directrices sobre la aplicación de la legislación. La legislación establece multas para las empresas que no cumplan las normas.

 
 
Patrocinio Plata
Patrocinio Bronce
Salir de la versión móvil