Situación normativa actual del IA Act - Entrada 7 — Transparencia para sistemas de riesgo limitado


 

Situación normativa actual del IA Act

Entrada 7 — Transparencia para sistemas de riesgo limitado

Qué exige el Artículo 50

El artículo 50 establece cuatro obligaciones principales, que afectan a distintos tipos de sistemas:

·       Interacción con personas — Los sistemas diseñados para interactuar directamente con personas deben informar claramente de que son IA, salvo que sea obvio para un usuario razonablemente informado. Esta obligación no aplica cuando la IA se usa legalmente para detectar o investigar delitos.

·       Contenido sintético (deepfakes, audio, imagen, vídeo o texto generado) — Los proveedores deben marcar las salidas del sistema de forma detectable y legible por máquina, para que pueda identificarse que el contenido es artificial o manipulado. Las soluciones deben ser eficaces, interoperables y robustas.

·       Reconocimiento de emociones y categorización biométrica — Los desplegadores deben informar a las personas expuestas a estos sistemas. Esto incluye cualquier uso en entornos laborales, educativos o comerciales, salvo excepciones legales muy concretas.

·       Deepfakes — Si un sistema genera o manipula imágenes, audio o vídeo de forma que constituya un deepfake, el desplegador debe revelarlo explícitamente. Solo se exceptúan usos autorizados por ley para fines de investigación o prevención de delitos.

Estas obligaciones se aplican tanto a proveedores como a desplegadores, dependiendo del tipo de sistema y del uso.

 

Qué sistemas entran en esta categoría

Los sistemas de riesgo limitado no requieren evaluación de conformidad ni marcado CE, pero sí transparencia. Entre ellos se incluyen:

·       Chatbots que interactúan con clientes o ciudadanos.

·       Herramientas que generan imágenes, vídeos, voces o textos sintéticos.

·       Sistemas que detectan emociones en voz, rostro o texto.

·       Sistemas que clasifican a personas según atributos biométricos no sensibles.

·       Aplicaciones que manipulan contenido audiovisual (incluidos deepfakes).

La Comisión Europea revisará periódicamente esta lista para ampliarla o ajustarla, según el estado del arte tecnológico .

 

Qué debe hacer una organización para cumplir

·       Etiquetar claramente la interacción con IA en interfaces, chatbots, asistentes virtuales o sistemas conversacionales.

·       Implementar marcas de agua o metadatos en contenido sintético, siguiendo estándares técnicos interoperables.

·       Informar a las personas expuestas cuando se utilicen sistemas de reconocimiento de emociones o categorización biométrica.

·       Revelar deepfakes de forma visible y comprensible.

·       Documentar las medidas de transparencia adoptadas y revisarlas periódicamente.

·       Formar a equipos de comunicación, marketing, RR. HH. y producto para evitar usos no conformes.

Estas medidas no son opcionales: son obligaciones legales que deben integrarse en los procesos de diseño, despliegue y comunicación.

 

Conexión con la siguiente entrada

Tras cubrir la transparencia para riesgo limitado, el siguiente paso natural es abordar los modelos de IA de propósito general (GPAI), que tienen su propio régimen en el Título VI del IA Act y que ya está en vigor desde agosto de 2025.

Comentarios