Situación normativa actual del IA Act Entrada 1 — Qué es la IA Act y por qué afecta directamente al compliance


 

Situación normativa actual del IA Act

Entrada 1 — Qué es la IA Act y por qué afecta directamente al compliance

Propósito del reglamento

El IA Act establece un marco jurídico uniforme para todos los sistemas de inteligencia artificial que se desarrollan, comercializan o utilizan en la Unión Europea. Su finalidad es doble:

·       Garantizar que la IA sea segura, fiable y respetuosa con los derechos fundamentales.

·       Evitar fragmentación regulatoria entre Estados miembros, asegurando la libre circulación de sistemas de IA en el mercado interior.

El texto oficial lo expresa como la creación de un marco que promueva una IA “centrada en el ser humano y digna de confianza”, protegiendo salud, seguridad, derechos fundamentales, democracia y medio ambiente, y evitando restricciones nacionales divergentes .

Ámbito de aplicación

El reglamento se aplica a:

·       Sistemas de IA colocados en el mercado de la UE.

·       Sistemas cuyo uso produce efectos dentro de la UE, aunque el proveedor esté fuera.

·       Todos los actores de la cadena de valor: proveedores, importadores, distribuidores y desplegadores.

Quedan excluidos usos militares, actividades de investigación pura y ciertos supuestos de software abierto.

Estructura general del IA Act

El reglamento se organiza en bloques que determinan obligaciones según el nivel de riesgo:

·       Prácticas prohibidas (riesgo inaceptable).

·       Sistemas de alto riesgo (núcleo del régimen).

·       Sistemas de riesgo limitado (transparencia).

·       Sistemas de riesgo mínimo (sin obligaciones específicas).

·       Modelos de IA de propósito general (incluidos los de riesgo sistémico).

·       Gobernanza, vigilancia del mercado y sanciones.

Esta estructura aparece reflejada en la división por capítulos del texto oficial, que abarca desde las disposiciones generales hasta las finales, pasando por prohibiciones, alto riesgo, transparencia, GPAI, innovación y supervisión .

Fechas clave

El calendario de aplicación es escalonado:

·       1 de agosto de 2024: entrada en vigor.

·       Febrero de 2025: prohibiciones.

·       Agosto de 2025: obligaciones para modelos de propósito general.

·       Agosto de 2026: aplicación principal de requisitos para sistemas de alto riesgo.

·       Hasta 2027: plazos adicionales para sistemas ya existentes.

Este despliegue progresivo está confirmado en análisis recientes que destacan que la mayoría de requisitos se activan en agosto de 2026, con extensión hasta 2027 para completar la transición .

Por qué afecta directamente al compliance

El IA Act no es una norma técnica aislada:

·       Introduce obligaciones legales exigibles, con sanciones de hasta el 7% de la facturación global.

·       Exige gobernanza interna, documentación, supervisión humana, gestión de riesgos y controles continuos.

·       Obliga a coordinar compliance, legal, tecnología, protección de datos y ciberseguridad.

·       Afecta tanto a quienes desarrollan IA como a quienes la usan en procesos internos.

Para cualquier organización, esto implica pasar de “usar IA” a demostrar que la usa de forma conforme, segura y documentada.

Qué debe hacer una organización en esta fase inicial

·       Elaborar un inventario completo de sistemas de IA.

·       Clasificarlos según el reglamento (prohibidos, alto riesgo, limitado, mínimo, GPAI).

·       Identificar roles: proveedor, importador, distribuidor, desplegador.

·       Revisar contratos, documentación técnica y políticas internas.

·       Preparar un plan de adaptación para 2026–2027.

Comentarios