IA Alto Riesgo: Prepare sus Sistemas para el AI Act
Cumplimiento del AI Act para sistemas de IA de alto riesgo: evaluaciones de conformidad, documentación técnica, marcado CE y seguimiento post-mercado.
Aplica esto a tu empresa?
¿Ha verificado formalmente si sus sistemas de IA caen en alguna de las ocho categorías de alto riesgo del Anexo III del AI Act?
¿Dispone de la documentación técnica completa exigida por el Anexo IV del Reglamento para sus sistemas de IA críticos?
¿Cuenta con un sistema de gestión de riesgos formal y un proceso de evaluación de conformidad para sus sistemas de IA de alto riesgo?
¿Ha implementado supervisión humana efectiva y monitoreo post-mercado para los sistemas de IA que afectan a decisiones sobre personas?
0 respondidas de 4 preguntas
Como trabajamos
Confirmación de clasificación y alcance
Verificamos si el sistema cae dentro de las categorías del Anexo III del AI Act, analizando el caso de uso real, la población afectada y el grado de autonomía del sistema. La clasificación incorrecta es la fuente más frecuente de riesgo regulatorio.
Diseño del sistema de gestión de riesgos
Implementamos el sistema de gestión de riesgos exigido por el artículo 9 del AI Act: identificación y evaluación de riesgos conocibles, medidas de mitigacion, pruebas de robustez y plan de revisión continua durante todo el ciclo de vida del sistema.
Documentación técnica y evaluación de conformidad
Preparamos el conjunto completo de documentación técnica exigido por el Anexo IV: descripción del sistema, datos de entrenamiento, metricas de rendimiento, medidas de supervisión humana y análisis de riesgos. Gestionamos el proceso de evaluación de conformidad, incluyendo la coordinación con organismos notificados cuando es necesario.
Registro UE, marcado CE y monitoreo post-mercado
Gestionamos el registro del sistema en la base de datos de la UE antes de su comercialización, coordinamos el proceso de marcado CE para los sistemas que lo requieren y diseñamos el sistema de monitoreo post-mercado con los indicadores de rendimiento y equidad requeridos.
El desafio
El Anexo III del AI Act clasifica como alto riesgo los sistemas de IA en sectores críticos: selección de personal, scoring crediticio, aplicación de la ley, educación, infraestructuras críticas y justicia. Para estos sistemas las obligaciones son sustanciales — documentación técnica, evaluación de conformidad, registro en la UE — y las sanciones por incumplimiento pueden alcanzar los 15 millones de euros. Muchas empresas desconocen que sus sistemas caen en esta categoría.
Nuestra solución
Gestionamos el ciclo completo de cumplimiento para sistemas de IA de alto riesgo: desde la confirmación de la clasificación hasta la documentación técnica, la evaluación de conformidad, el marcado CE cuando procede y el sistema de monitoreo post-mercado. Actuamos como asesor técnico y jurídico integral para proveedores y responsables del despliegue.
Los sistemas de inteligencia artificial de alto riesgo son aquellos enumerados en el Anexo III del Reglamento (UE) 2024/1689 (AI Act) que, por su potencial impacto sobre los derechos fundamentales, están sujetos a un régimen de obligaciones reforzado: gestión de riesgos (art. 9), documentación técnica exhaustiva (Anexo IV), supervisión humana (art. 14), evaluación de conformidad y registro en la base de datos de la UE antes de su comercialización. Las ocho categorías del Anexo III incluyen sistemas de identificación biométrica, gestión de infraestructuras críticas, selección de personal, scoring crediticio, evaluación educativa, aplicación de la ley, gestión de la migración y administración de justicia. Las obligaciones para estos sistemas son aplicables desde el 2 de agosto de 2026, con sanciones por incumplimiento de hasta 15 millones de euros o el 3% de la facturación global anual.
Sistemas de IA de alto riesgo (Anexo III): las 8 categorías que más empresas ignoran
El Anexo III del AI Act es la lista que más empresas necesitan conocer y menos han leido con detenimiento. Ocho categorías de sistemas de IA — selección de personal, scoring crediticio, gestión de infraestructuras críticas, sistemas educativos, aplicación de la ley, migración, administración de justicia e identificación biométrica — están sujetas a un régimen de obligaciones sustancialmente más exigente que el resto del Reglamento. Las sanciones por incumplimiento pueden alcanzar 15 millones de euros o el 3% de la facturación global, con fecha efectiva el 2 de agosto de 2026.
Muchas empresas desconocen que sus sistemas caen en el Anexo III: un sistema de puntuacion de empleados que determina promociones, una herramienta de cribado de CVs, o un modelo de scoring crediticio pueden estar en esta categoría sin que el equipo jurídico lo haya identificado.
Clasificación, documentación Anexo IV y evaluación de conformidad
Nuestro equipo comienza por la confirmación de clasificación: verificamos si el sistema cae en el Anexo III analizando el caso de uso real, la población afectada y el grado de autonomía del sistema. La clasificación incorrecta es la fuente más frecuente de riesgo regulatorio. A partir de la clasificación confirmada, gestionamos el ciclo completo: sistema de gestión de riesgos del artículo 9, documentación técnica del Anexo IV, evaluación de conformidad, marcado CE cuando procede, y sistema de monitoreo post-mercado.
Coordinamos con el equipo técnico que desarrollo o integro el sistema y con el área de protección de datos para alinear el AI Act con las obligaciones del RGPD cuando el sistema trata datos personales.
Contexto regulatorio: AI Act e interseccion con RGPD y EIPD
El AI Act (Reglamento UE 2024/1689), Artículo 6 y Anexo III, clasifica los sistemas de IA de alto riesgo. Las obligaciones para estos sistemas entran en vigor el 2 de agosto de 2026. La evaluación de conformidad puede ser autoevaluacion por el proveedor (mayoría de los casos del Anexo III) o por organismo notificado externo (biometria, infraestructuras críticas, aplicación de la ley en algunas categorías).
Las evaluaciones de impacto sobre derechos fundamentales del AI Act deben coordinarse con las EIPD del RGPD cuando el sistema trata datos personales. Un proceso integrado con nuestros equipos de governance de IA evita duplicidades y garantiza coherencia entre los dos marcos regulatorios.
Resultados que puedes esperar
- Clasificación formal y documentada del sistema en la taxonomia del AI Act
- Sistema de gestión de riesgos del artículo 9 implementado y operativo
- Documentación técnica completa del Anexo IV lista para revisión por el organismo supervisor
- Evaluación de conformidad gestionada con el procedimiento correcto para cada tipo de sistema
- Registro en la base de datos de la UE antes de la comercialización
- Sistema de monitoreo post-mercado con indicadores de rendimiento y equidad
El Anexo III del AI Act es la lista que más empresas necesitan conocer y menos han leido con detenimiento. Ocho categorías de sistemas de IA están sujetas a un régimen de obligaciones sustancialmente más exigente que el resto del Reglamento. La pregunta no es teorica: si su empresa usa IA para tomar o influir en decisiones sobre personas en alguno de estos contextos, las obligaciones de agosto de 2026 le afectan directamente.
La clasificación de un sistema como de alto riesgo no depende solo de la tecnología, sino del uso concreto que se hace de ella. Un sistema de reconocimiento facial usado internamente para control de acceso en una instalación puede no ser de alto riesgo; el mismo sistema usado para identificar personas en espacios públicos probablemente si lo es. Un modelo de machine learning que ayuda a los gestores a preparar evaluaciones de desempeño puede estar en una zona gris; el mismo modelo que genera puntuaciones que determinan directamente promociones o despidos probablemente cae en el Anexo III. La confirmación de clasificación es el primer servicio que ofrecemos porque es la base de todo lo demas.
La documentación técnica exigida por el Anexo IV es extensa y específica. No se trata de un documento descriptivo generico, sino de un conjunto de evidencias técnicas sobre como funciona el sistema, con que datos fue entrenado, como se evaluo su rendimiento, que sesgos fueron detectados y como se mitigaron, y como se garantiza la supervisión humana en su uso operativo. Preparar esta documentación requiere la colaboración entre el equipo legal y el equipo técnico que desarrolló o integró el sistema, un proceso que coordinamos de forma integral.
Para los sistemas de IA de alto riesgo que tratan datos personales —lo que incluye prácticamente todos los sistemas de selección de personal, scoring financiero e identificación biométrica—, el cumplimiento del AI Act debe coordinarse con las obligaciones del RGPD y la protección de datos. Las evaluaciones de impacto sobre derechos fundamentales del AI Act y las evaluaciones de impacto sobre la protección de datos (EIPD) del RGPD no son redundantes pero si se superponen: un proceso integrado evita duplicaciones y garantiza que los dos marcos de cumplimiento sean coherentes entre si.
El monitoreo post-mercado es quizá la obligación más subestimada del AI Act para sistemas de alto riesgo. No basta con cumplir al momento del despliegue: el Reglamento exige un sistema continuo de recogida y análisis de datos sobre el funcionamiento real del sistema. Esto implica definir indicadores de rendimiento y equidad, establecer umbrales de alerta que activen revisiones, y mantener registros que demuestren que el sistema sigue funcionando conforme a la evaluación de conformidad original. Diseñamos estos sistemas de monitoreo para que sean operativamente viables sin generar una carga desproporcionada sobre los equipos técnicos.
Marco regulador: AI Act Reglamento (UE) 2024/1689 y su estructura normativa
El Reglamento (UE) 2024/1689, publicado en el Diario Oficial de la UE el 12 de julio de 2024, es la primera regulación integral de la inteligencia artificial en el mundo. Su estructura de obligaciones para los sistemas de alto riesgo se articula en los siguientes preceptos clave:
Artículo 6 y Anexo III (clasificación de alto riesgo): define las ocho categorías de sistemas de IA de alto riesgo y los criterios de clasificación. La interpretación del Anexo III debe hacerse a la luz de las Directrices de Clasificación que la Comisión Europea está desarrollando (previstas para el segundo semestre de 2025).
Artículo 9 (sistema de gestión de riesgos): obliga a los proveedores de sistemas de alto riesgo a establecer, implementar, documentar y mantener un sistema de gestión de riesgos durante todo el ciclo de vida del sistema de IA, identificando, analizando y evaluando los riesgos razonablemente previsibles.
Artículo 10 (datos y gobernanza de datos): exige que los datos de entrenamiento, validación y prueba sean pertinentes, representativos, libres de errores en la medida de lo posible y completos. Para sistemas que tratan datos de grupos específicos, obliga a analizar y gestionar posibles sesgos que puedan dar lugar a riesgos.
Artículo 13 (transparencia e información a los usuarios): obliga a diseñar el sistema de forma que sus instrucciones de uso permitan a los usuarios comprender las capacidades y limitaciones del sistema y interpretar correctamente sus resultados.
Artículo 14 (supervisión humana): exige que los sistemas de IA de alto riesgo sean diseñados para permitir que personas físicas supervisen eficazmente su funcionamiento durante el período de uso, con la posibilidad de detener, ignorar, anular o revertir los resultados del sistema.
Artículo 17 (sistema de gestión de calidad): los proveedores deben contar con un sistema de gestión de calidad que cubra toda la cadena de desarrollo, desde el diseño hasta la post-comercialización, con documentación actualizada y procedimientos de gestión de incidentes graves.
Anexo IV (documentación técnica): establece el contenido mínimo de la documentación técnica que debe prepararse antes de la comercialización y mantenerse actualizada, incluyendo descripción del sistema, datos de entrenamiento, evaluación de rendimiento, análisis de riesgos y medidas de supervisión humana.
Las sanciones máximas para el incumplimiento de las obligaciones aplicables a los sistemas de alto riesgo son de 15 millones de euros o el 3% de la facturación anual global total del ejercicio anterior (art. 99.3 AI Act), el importe que sea más elevado.
Procedimiento de conformidad: del diagnóstico a la certificación
El ciclo completo de cumplimiento para un sistema de IA de alto riesgo sigue las siguientes fases:
| Fase | Contenido | Duración estimada |
|---|---|---|
| 1. Confirmación de clasificación | Análisis del caso de uso real, población afectada y grado de autonomía frente al Anexo III | 1-2 semanas |
| 2. Gap analysis de cumplimiento | Evaluación del estado actual frente a los arts. 9, 10, 13, 14 y 17 y el Anexo IV | 2-3 semanas |
| 3. Sistema de gestión de riesgos (art. 9) | Identificación, análisis, evaluación y gestión de riesgos del ciclo de vida | 3-6 semanas |
| 4. Gobernanza de datos (art. 10) | Auditoría de datos de entrenamiento, validación de representatividad y análisis de sesgo | 2-4 semanas |
| 5. Documentación técnica (Anexo IV) | Redacción o revisión de la documentación técnica completa | 3-5 semanas |
| 6. Evaluación de conformidad | Autoevaluación o evaluación por organismo notificado según el tipo de sistema | 2-6 semanas |
| 7. Registro en base de datos UE | Alta en la base de datos de sistemas de IA de alto riesgo de la UE (art. 49) | 1-2 semanas |
| 8. Sistema de monitoreo post-mercado | Diseño e implantación del sistema de monitoreo continuo (art. 72) | 2-4 semanas |
Total estimado: 16-32 semanas para un sistema de tamaño mediano con documentación técnica parcialmente existente. Sistemas con documentación inexistente o datos de entrenamiento no documentados pueden requerir plazos adicionales.
Juzgado y autoridad supervisora competente
La autoridad nacional competente para la supervisión del AI Act en España aún no ha sido designada formalmente en el momento de la publicación de este contenido (la LO española de adaptación está en proceso). La Agencia Española de Protección de Datos (AEPD) ha sido identificada como supervisora para los aspectos relacionados con el RGPD, y la Secretaría de Estado de Digitalización está coordinando la designación de la autoridad de mercado para el AI Act.
En el plano europeo, la Oficina de IA (AI Office) de la Comisión Europea tiene competencia para supervisar los sistemas de IA de propósito general (GPAIs) y actuar como supervisora de las autoridades nacionales en el marco del AI Act.
En caso de litigio por sanciones, la competencia recae en los Juzgados Centrales de lo Contencioso-Administrativo para resoluciones del ámbito nacional, y en el Tribunal de Justicia de la UE para impugnaciones de decisiones de la Comisión Europea o de la Oficina de IA.
Caso práctico: sistema de IA para evaluación de crédito al consumo en una fintech española
Situación: fintech española con 85 empleados que opera una plataforma de préstamos personales digitales. Su sistema de scoring crediticio basado en machine learning analiza más de 200 variables para aprobar o rechazar solicitudes de crédito de hasta 15.000€ en tiempo real. El sistema lleva en producción desde 2023 con un volumen de 45.000 decisiones/mes.
Clasificación: el sistema cae claramente en el Anexo III, categoría 5 (sistemas de IA utilizados para evaluar la solvencia de personas físicas o establecer su puntuación de crédito), con fecha de cumplimiento obligatorio el 2 de agosto de 2026.
Gap analysis: cinco brechas críticas identificadas — (1) ausencia de sistema de gestión de riesgos documentado conforme al art. 9; (2) datos de entrenamiento históricos (2019-2022) con subrepresentación de solicitantes menores de 30 años y autónomos, incumpliendo el art. 10; (3) interfaz de usuario sin explicación comprensible del resultado para el solicitante rechazado, incumpliendo el art. 13; (4) proceso de revisión humana sin documentación del procedimiento ni responsable designado, incumpliendo el art. 14; (5) documentación técnica inexistente conforme al Anexo IV.
Solución implementada: sistema de gestión de riesgos del art. 9 diseñado en 5 semanas, con 12 riesgos identificados y planes de mitigación documentados. Reentramiento del modelo con datos de 2022-2025 con distribución más representativa, reduciendo el diferencial de tasa de rechazo entre grupos a menos del 5%. Rediseño de la interfaz para mostrar al solicitante rechazado las tres variables de mayor impacto negativo (sin revelar el modelo). Designación de un equipo de revisión humana para los casos en rango de incertidumbre (0,45-0,55 de probabilidad). Documentación técnica del Anexo IV completada en 8 semanas.
Resultado: sistema en conformidad 4 meses antes de la fecha límite. La empresa evitó sanciones potenciales de hasta 15M€ y documentó el proceso para futuras auditorías del supervisor nacional.
Cinco errores comunes que BMC corrige
-
Asumir que la IA interna de gestión no cae en el Anexo III: sistemas de scoring de empleados para decisiones de promoción o despido (categoría 4 del Anexo III) o de evaluación de riesgo de absentismo caen en la clasificación de alto riesgo aunque sean de uso interno. Muchas empresas descartan el análisis sin haberlo verificado.
-
Confundir el proveedor con el deployer: el AI Act distingue entre el proveedor (quien desarrolla o pone en el mercado el sistema) y el deployer (quien lo usa en un contexto profesional). Cada uno tiene obligaciones distintas. Usar un sistema de IA de tercero no exime de las obligaciones del deployer, que incluyen el art. 26 (garantizar la supervisión humana) y la notificación de incidentes graves.
-
Tratar la documentación técnica como burocracia, no como herramienta de defensa: el Anexo IV no es un trámite formal. En caso de investigación regulatoria o litigio con un usuario afectado, la documentación técnica es la principal evidencia de que el sistema cumplía los requisitos de diseño. Una documentación incompleta o inconsistente con el funcionamiento real del sistema agrava la posición de la empresa.
-
No coordinar AI Act y RGPD: el 80% de los sistemas de IA de alto riesgo que caen en el Anexo III también tratan datos personales y están sujetos al RGPD. Gestionar los dos marcos de cumplimiento de forma aislada genera inconsistencias y duplicidades costosas. La evaluación de impacto sobre derechos fundamentales del AI Act y la EIPD del RGPD deben hacerse de forma integrada.
-
Subestimar el monitoreo post-mercado: el art. 72 del AI Act exige un sistema continuo de monitoreo que no termina con la certificación inicial. Los proveedores que tratan el cumplimiento como un proyecto de un solo disparo se encontrarán fuera de conformidad en la primera actualización del modelo o en el primer cambio significativo de las condiciones de uso.
La experiencia que nos respalda
Nuestro sistema de scoring para concesión de prestamos personales lleva tres años en producción. Cuando el equipo legal analizo el AI Act, quedo claro que estabamos en el Anexo III sin ninguna de las obligaciones cubiertas. BMC preparo toda la documentación técnica, gestionó la evaluación de conformidad y disenó el sistema de monitoreo. Cumplimos antes de la fecha límite sin interrumpir el negocio.
Equipo con experiencia local y visión internacional
Entregables concretos
Confirmación de clasificación Anexo III
Análisis jurídico y técnico para determinar si un sistema específico cae dentro de las categorías del Anexo III, considerando el uso real, la cadena de valor y la población afectada.
Sistema de gestión de riesgos (Art. 9)
Implementación del sistema de gestión de riesgos exigido por el AI Act: identificación de riesgos, evaluación de probabilidad e impacto, medidas de mitigacion y plan de revisión continua durante el ciclo de vida.
Documentación técnica completa (Anexo IV)
Preparación del conjunto completo de documentación técnica: descripción del sistema, datos de entrenamiento, metricas de rendimiento, análisis de sesgos, supervisión humana y plan de actualizaciones.
Evaluación de conformidad y marcado CE
Gestión del proceso de evaluación de conformidad: autoevaluacion con normas armonizadas o coordinación con organismos notificados, declaración de conformidad y proceso de marcado CE.
Registro UE y monitoreo post-mercado
Gestión del registro en la base de datos de la UE y diseño del sistema de monitoreo post-mercado con indicadores de rendimiento, equidad e incidentes graves.
Resultados que hablan
RGPD hospital: de investigación AEPD a cumplimiento pleno | BMC
Investigación de la AEPD cerrada sin sanción. Cumplimiento RGPD pleno alcanzado en los 12 centros en 6 meses, con DPO nombrado, registro completo de tratamientos y 3.000 empleados formados.
Expansion internacional de empresa tecnológica
Estructura fiscal implementada que permitio operar en 3 nuevos mercados con un ahorro fiscal del 28% respecto al escenario sin planificación.
Guías de referencia
Abogado de empresa en Murcia: Asesoramiento legal para pymes, empresas agroalimentarias e industriales
Abogados especializados en derecho de empresa en Murcia. Constituciones, contratos mercantiles, disputas comerciales y asesoramiento legal continua para pymes murcianas.
Ver guíaAbogado de herencias en Alicante: tramite su herencia con herederos nacionales e internacionales
Abogados especialistas en herencias en Alicante. Tramitación del impuesto de sucesiones en la Comunitat Valenciana, herencias con herederos no residentes y conflictos hereditarios.
Ver guíaAbogado de herencias en Barcelona: tramite su herencia con la normativa catalana y sin conflictos
Abogados especialistas en herencias en Barcelona. Tramitación completa del impuesto de sucesiones en Cataluña, particion, testamentos y conflictos hereditarios.
Ver guíaAbogado de herencias en Bilbao: el régimen foral vasco y sus ventajas fiscales para herederos
Abogados especialistas en herencias en Bilbao. Tramitación del impuesto de sucesiones en el País Vasco bajo la normativa foral vizcaína, particion y conflictos hereditarios.
Ver guíaAbogado de herencias en Donostia: el régimen foral de Gipuzkoa y la bonificación del 95% en el ISD
Abogados especialistas en herencias en Donostia-San Sebastián. Tramitación bajo el derecho foral de Gipuzkoa, impuesto de sucesiones de la Diputación Foral y conflictos hereditarios.
Ver guíaAbogado de herencias en Girona: derecho catalán y herencias internacionales en la Costa Brava
Abogados especialistas en herencias en Girona. Tramitación bajo el Codi Civil de Catalunya, impuesto de sucesiones ante la ATC, herencias internacionales en la Costa Brava.
Ver guíaAnálisis y perspectivas
3 años asesorando clientes internacionales
Preguntas frecuentes
Empieza con un diagnóstico gratuito
Nuestro equipo de especialistas, con profundo conocimiento del mercado español y europeo, te guiara desde el primer momento.
Sistemas de IA de Alto Riesgo
Legal
Primer paso
Empieza con un diagnóstico gratuito
Nuestro equipo de especialistas, con profundo conocimiento del mercado español y europeo, te guiara desde el primer momento.
Solicita tu diagnóstico
También le puede interesar
Auditoría de Ciberseguridad
Auditoría de seguridad: cumplimiento normativo, análisis de vulnerabilidades, test de penetración y evaluación de riesgos de terceros en su empresa.
Saber másCumplimiento del Reglamento de IA (AI Act)
Adaptación al Reglamento Europeo de IA: clasificación de riesgos, evaluaciones de conformidad y obligaciones de transparencia para sistemas de IA.
Saber másDPO Externo (Delegado de Protección de Datos)
Servicio de Delegado de Protección de Datos externalizado: cumplimiento RGPD continuo, interlocución con la AEPD y gestión integral de la función DPO.
Saber másEvaluación de Impacto en Protección de Datos (EIPD)
Evaluaciones de Impacto en Protección de Datos (DPIA) para tratamientos de alto riesgo: metodología RGPD y consulta previa a la AEPD cuando corresponda.
Saber másGobernanza de Inteligencia Artificial
Marcos de gobernanza de IA, comités de ética, auditoría algoritmica, detección de sesgo e inventario de sistemas de IA para organizaciones responsables.
Saber másProtección de Datos y Privacidad
Cumplimiento del RGPD y la LOPDGDD, DPO externalizado y gestión integral de la privacidad para empresas.
Saber másTérminos clave
Reglamento de IA (AI Act)
El Reglamento de Inteligencia Artificial de la Unión Europea (AI Act) es el primer marco legal…
Leer definiciónCiberseguridad empresarial
La ciberseguridad empresarial es el conjunto de procesos, tecnologías y prácticas diseñados para…
Leer definiciónDelegado de Protección de Datos (DPO)
El Delegado de Protección de Datos (DPO, Data Protection Officer) es la figura responsable de…
Leer definiciónEvaluación de Impacto en Protección de Datos (EIPD / DPIA)
La Evaluación de Impacto en Protección de Datos (EIPD, o DPIA por sus siglas en inglés) es un…
Leer definiciónDirectiva NIS2 (Ciberseguridad)
La Directiva NIS2 (Network and Information Security 2) es la normativa europea de ciberseguridad que…
Leer definiciónPrivacidad desde el Diseño (Privacy by Design)
Principio del RGPD (Art. 25) que obliga a integrar la protección de datos personales desde la fase…
Leer definiciónProtección de datos personales (RGPD/LOPDGDD)
La protección de datos personales es el conjunto de normas y principios que regulan el tratamiento…
Leer definiciónHable con el socio del área
Respuesta en menos de 24h laborables. Primera reunión sin coste.