Situación normativa
actual del IA Act
Entrada 7 —
Transparencia para sistemas de riesgo limitado
Qué exige el Artículo 50
El artículo 50 establece
cuatro obligaciones principales, que afectan a distintos tipos de sistemas:
·
Interacción con personas — Los
sistemas diseñados para interactuar directamente con personas deben informar
claramente de que son IA, salvo que sea obvio para un usuario razonablemente
informado. Esta obligación no aplica cuando la IA se usa legalmente para
detectar o investigar delitos.
·
Contenido sintético (deepfakes, audio,
imagen, vídeo o texto generado) — Los proveedores deben
marcar las salidas del sistema de forma detectable y legible por máquina,
para que pueda identificarse que el contenido es artificial o manipulado. Las
soluciones deben ser eficaces, interoperables y robustas.
·
Reconocimiento de emociones y
categorización biométrica — Los desplegadores deben informar a las
personas expuestas a estos sistemas. Esto incluye cualquier uso en entornos
laborales, educativos o comerciales, salvo excepciones legales muy concretas.
·
Deepfakes — Si
un sistema genera o manipula imágenes, audio o vídeo de forma que constituya un
deepfake, el desplegador debe revelarlo explícitamente. Solo se
exceptúan usos autorizados por ley para fines de investigación o prevención de
delitos.
Estas obligaciones se aplican
tanto a proveedores como a desplegadores, dependiendo del tipo de sistema y del
uso.
Qué sistemas entran en esta
categoría
Los sistemas de riesgo
limitado no requieren evaluación de conformidad ni marcado CE, pero sí
transparencia. Entre ellos se incluyen:
·
Chatbots que interactúan con clientes o
ciudadanos.
·
Herramientas que generan imágenes, vídeos,
voces o textos sintéticos.
·
Sistemas que detectan emociones en voz, rostro
o texto.
·
Sistemas que clasifican a personas según
atributos biométricos no sensibles.
·
Aplicaciones que manipulan contenido
audiovisual (incluidos deepfakes).
La Comisión Europea revisará
periódicamente esta lista para ampliarla o ajustarla, según el estado del arte
tecnológico .
Qué debe hacer una
organización para cumplir
·
Etiquetar claramente la interacción con IA en
interfaces, chatbots, asistentes virtuales o sistemas conversacionales.
·
Implementar marcas de agua o metadatos en
contenido sintético, siguiendo estándares técnicos interoperables.
·
Informar a las personas expuestas
cuando se utilicen sistemas de reconocimiento de emociones o categorización
biométrica.
·
Revelar deepfakes de
forma visible y comprensible.
·
Documentar las medidas de transparencia
adoptadas y revisarlas periódicamente.
·
Formar a equipos de comunicación,
marketing, RR. HH. y producto para evitar usos no
conformes.
Estas medidas no son
opcionales: son obligaciones legales que deben integrarse en los procesos de
diseño, despliegue y comunicación.
Conexión con la siguiente
entrada
Tras cubrir la transparencia
para riesgo limitado, el siguiente paso natural es abordar los modelos de IA
de propósito general (GPAI), que tienen su propio régimen en el
Título VI del IA Act y que ya está en vigor desde agosto de 2025.

Comentarios
Publicar un comentario