CUMPLIMIENTO
Ley de Intelegencia Artificial
Ley de Inteligencia Artificial
El Reglamento sobre IA (RIA) está diseñado para abordar no solo los aspectos técnicos, sino también cuestiones éticas y desafíos de aplicación de la Inteligencia Artificial en diversos sectores. Presta especial atención a la calidad de los datos, la seguridad, la transparencia, la privacidad, la no discriminación y la supervisión humana. El objetivo es garantizar que la IA utilizada en Europa cumpla con los más altos estándares, en consonancia con los valores y derechos fundamentales de la Unión Europea.
El Reglamento sobre IA aplica a:
- Proveedores que introduzcan en el mercado o pongan en servicio sistemas de IA en la Unión, con independencia de si están establecidos en la UE o en un tercer país.
- Responsables del despliegue de sistemas de IA que estén establecidos o ubicados en la UE.
- Los proveedores y responsables del despliegue de sistemas de IA que estén establecidos en la fuera de la UE, cuando los resultados de salida generados por la IA se utilicen en la UE.
- Los importadores y distribuidores de sistemas de IA.
- Los fabricantes de productos que introduzcan en el mercando o pongan en servicio un sistema de IA junto con su producto y con su propio nombre o marca.
- Los representantes autorizados de los proveedores que no estén establecidos en la UE.
- Las personas afectadas que estén ubicadas en la UE.
El RIA no se aplicará a los sistemas de IA utilizados en materia de seguridad nacional, fines militares, de defensa, autoridades de terceros países, ni a las organizaciones internacionales, cuando estas utilicen sistemas de IA en el marco de acuerdos de cooperación internacional, con fines de garantía del cumplimiento del Derecho y cooperación judicial con la UE. Esto será así siempre que ofrezcan garantías suficientes en relación con los derechos y libertades fundamentales de las personas.
El Reglamento sobre IA establece una serie de obligaciones en función del nivel riesgo de la IA, que se evaluará en función del riesgo que el uso de la tecnología puede suponer para la seguridad, la salud y los derechos fundamentales de una persona. En concreto, los sistemas de IA se clasifican en cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo.
Los sistemas con un riesgo inaceptable son aquellos que se consideran una amenaza para las personas y serán prohibidos. Algunos ejemplos serían: la manipulación cognitiva, la puntuación social o los sistemas de identificación biométrica en tiempo real y a distancia. Pero, existen algunas excepciones a esta calificación como, por ejemplo, los sistemas de identificación biométrica a distancia «a posteriori», en los que la identificación se produce tras un retraso significativo. Se permitirán para perseguir delitos graves y sólo cuando haya previa aprobación judicial.
Los sistemas de IA de riesgo alto deberán cumplir con una serie de obligaciones para garantizar que aquellos que se utilicen en la Unión Europea sean seguros y respeten tanto los derechos fundamentales de las personas como los valores y garantías de la Unión. Algunas de las obligaciones previstas son: realizar evaluaciones de riesgo durante todo el ciclo de vida, ser aprobados mediante procedimientos adecuados antes de su uso, ser supervisados por personas físicas, etc.
En el caso de los sistemas de IA de riesgo limitado deben ser transparentes y permitir a los usuarios tomar decisiones informadas. Eso significa que los usuarios deben estar informados de que están interactuando con una IA, salvo en aquellas situaciones en las que resulte evidente. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, deepfakes).
Si hablamos de sanciones, las más altas podrán ser de hasta 30 millones de euros o, si es una empresa, hasta el 6% del volumen de negocio total anual global del ejercicio financiero anterior.