El Consejo de Europa adopta un tratado internacional sobre inteligencia artificial

El Consejo de Europa adopta un tratado internacional sobre inteligencia artificial

El Consejo de Europa adoptó la semana pasada el Convenio Marco sobre Inteligencia Artificial y derechos humanos, democracia y Estado de derecho, el primer tratado internacional jurídicamente vinculante en este ámbito. El convenio, que también está abierto a países no europeos, establece un marco jurídico que abarca todo el ciclo de vida de los sistemas de inteligencia artificial (IA), se ocupa de los riesgos que pueden plantear y promueve la innovación responsable.

El Consejo de Europa ha adoptado el primer tratado internacional jurídicamente vinculante destinado a garantizar el respeto de los derechos humanos, del Estado de derecho y las normas jurídicas democráticas en el uso de los sistemas de IA.

El tratado adopta un enfoque basado en el riesgo para diseñar, desarrollar, usar y decomisar sistemas de inteligencia artificial. Surge en respuesta a la necesidad de una norma jurídica internacional, respaldada por países de distintos continentes que comparten los mismos valores, para aprovechar los beneficios de la IA y mitigar sus riesgos.

Es el resultado de dos años de trabajo de un órgano intergubernamental, el Comité sobre Inteligencia Artificial (CAI, por sus siglas en inglés). Éste reunió para redactar el tratado a los 46 Estados miembros del Consejo de Europa y la Unión Europea y a 11 países no miembros (Argentina, Australia, Canadá, Costa Rica, Estados Unidos, Israel, Japón, México, Perú, la Santa Sede y Uruguay). Además, participaron como observadores representantes del sector privado, la sociedad civil y el mundo académico.

Convenio Marco sobre Inteligencia Artificial

El convenio marco cubre el uso de sistemas de IA en el sector público y privado. Ofrece dos formas de cumplir sus principios y obligaciones a la hora de regular el sector privado: las partes pueden optar por quedar obligadas directamente por las disposiciones pertinentes del convenio o, como alternativa, adoptar otras medidas para cumplir con las disposiciones a la vez que se respetan plenamente sus obligaciones en materia de derechos humanos, democracia y Estado de derecho.

Asimismo, establece requisitos de transparencia y supervisión adaptados a contextos y riesgos específicos, entre los que se encuentra la identificación de contenidos generados por IA. Las partes deberán adoptar medidas para identificar, evaluar, prevenir y mitigar posibles riesgos y evaluar la necesidad de una moratoria, prohibición u otras medidas apropiadas en relación con el uso de sistemas de IA cuando sus riesgos puedan ser incompatibles con las normas de los derechos humanos.

Igualmente, tendrán que garantizar la rendición de cuentas y la responsabilidad por el impacto negativo, y que los sistemas de IA respeten la igualdad, la prohibición de la discriminación y el derecho a la intimidad. También deberán asegurar la disponibilidad de recursos legales para las víctimas de violaciones de los derechos humanos relacionadas con la IA y de garantías procesales, incluida la notificación de que se está interactuando con estos sistemas.

En lo referente a los riesgos para la democracia, el tratado determina que se adopten medidas para garantizar que los sistemas de IA no se utilicen para minar las instituciones y procesos democráticos, como el principio de separación de poderes, el respeto de la independencia judicial y el acceso a la justicia.

Aplicación del tratado

Las partes del convenio no estarán obligadas a aplicar las disposiciones a las actividades relacionadas con la protección de los intereses de la seguridad nacional, pero sí a garantizar que estas actividades respetan el derecho internacional y las instituciones y procesos democráticos.

El tratado no se aplicará a asuntos de defensa nacional ni a actividades de investigación y desarrollo, excepto cuando las pruebas de los sistemas de IA puedan interferir potencialmente con los derechos humanos, la democracia o el Estado de derecho. Para garantizar su aplicación efectiva, el convenio establece un mecanismo de seguimiento en forma de Conferencia de las Partes.

Por último, exige que cada parte establezca un mecanismo de supervisión independiente para vigilar su cumplimiento, para la sensibilización y estimulación de un debate público informado, y para que se lleven a cabo consultas con múltiples partes interesadas sobre cómo debería ser utilizada la IA.

El próximo 5 de septiembre este convenio marco se abrirá a la firma en Vilna (Lituania), coincidiendo con una conferencia de ministros de Justicia.

 
 
Patrocinio Plata
Patrocinio Bronce
Salir de la versión móvil