Ir al contenido

IA Alto Riesgo: Prepare sus Sistemas para el AI Act

Cumplimiento del AI Act para sistemas de IA de alto riesgo: evaluaciones de conformidad, documentación técnica, marcado CE y seguimiento post-mercado.

8
Categorías de alto riesgo en el Anexo III del AI Act
15M€
Sanción máxima por incumplimiento de obligaciones de alto riesgo
Ago 2026
Fecha efectiva de las obligaciones para sistemas de alto riesgo
4.8/5 en Google · 50+ reseñas 25+ años de experiencia 5 oficinas en España 500+ clientes
Evaluación rápida

Aplica esto a tu empresa?

¿Ha verificado formalmente si sus sistemas de IA caen en alguna de las ocho categorías de alto riesgo del Anexo III del AI Act?

¿Dispone de la documentación técnica completa exigida por el Anexo IV del Reglamento para sus sistemas de IA críticos?

¿Cuenta con un sistema de gestión de riesgos formal y un proceso de evaluación de conformidad para sus sistemas de IA de alto riesgo?

¿Ha implementado supervisión humana efectiva y monitoreo post-mercado para los sistemas de IA que afectan a decisiones sobre personas?

0 respondidas de 4 preguntas

Nuestro enfoque

Como trabajamos

01

Confirmación de clasificación y alcance

Verificamos si el sistema cae dentro de las categorías del Anexo III del AI Act, analizando el caso de uso real, la población afectada y el grado de autonomía del sistema. La clasificación incorrecta es la fuente más frecuente de riesgo regulatorio.

02

Diseño del sistema de gestión de riesgos

Implementamos el sistema de gestión de riesgos exigido por el artículo 9 del AI Act: identificación y evaluación de riesgos conocibles, medidas de mitigacion, pruebas de robustez y plan de revisión continua durante todo el ciclo de vida del sistema.

03

Documentación técnica y evaluación de conformidad

Preparamos el conjunto completo de documentación técnica exigido por el Anexo IV: descripción del sistema, datos de entrenamiento, metricas de rendimiento, medidas de supervisión humana y análisis de riesgos. Gestionamos el proceso de evaluación de conformidad, incluyendo la coordinación con organismos notificados cuando es necesario.

04

Registro UE, marcado CE y monitoreo post-mercado

Gestionamos el registro del sistema en la base de datos de la UE antes de su comercialización, coordinamos el proceso de marcado CE para los sistemas que lo requieren y diseñamos el sistema de monitoreo post-mercado con los indicadores de rendimiento y equidad requeridos.

El desafio

El Anexo III del AI Act clasifica como alto riesgo los sistemas de IA en sectores críticos: selección de personal, scoring crediticio, aplicación de la ley, educación, infraestructuras críticas y justicia. Para estos sistemas las obligaciones son sustanciales — documentación técnica, evaluación de conformidad, registro en la UE — y las sanciones por incumplimiento pueden alcanzar los 15 millones de euros. Muchas empresas desconocen que sus sistemas caen en esta categoría.

Nuestra solución

Gestionamos el ciclo completo de cumplimiento para sistemas de IA de alto riesgo: desde la confirmación de la clasificación hasta la documentación técnica, la evaluación de conformidad, el marcado CE cuando procede y el sistema de monitoreo post-mercado. Actuamos como asesor técnico y jurídico integral para proveedores y responsables del despliegue.

Los sistemas de inteligencia artificial de alto riesgo son aquellos enumerados en el Anexo III del Reglamento (UE) 2024/1689 (AI Act) que, por su potencial impacto sobre los derechos fundamentales, están sujetos a un régimen de obligaciones reforzado: gestión de riesgos (art. 9), documentación técnica exhaustiva (Anexo IV), supervisión humana (art. 14), evaluación de conformidad y registro en la base de datos de la UE antes de su comercialización. Las ocho categorías del Anexo III incluyen sistemas de identificación biométrica, gestión de infraestructuras críticas, selección de personal, scoring crediticio, evaluación educativa, aplicación de la ley, gestión de la migración y administración de justicia. Las obligaciones para estos sistemas son aplicables desde el 2 de agosto de 2026, con sanciones por incumplimiento de hasta 15 millones de euros o el 3% de la facturación global anual.

Sistemas de IA de alto riesgo (Anexo III): las 8 categorías que más empresas ignoran

El Anexo III del AI Act es la lista que más empresas necesitan conocer y menos han leido con detenimiento. Ocho categorías de sistemas de IA — selección de personal, scoring crediticio, gestión de infraestructuras críticas, sistemas educativos, aplicación de la ley, migración, administración de justicia e identificación biométrica — están sujetas a un régimen de obligaciones sustancialmente más exigente que el resto del Reglamento. Las sanciones por incumplimiento pueden alcanzar 15 millones de euros o el 3% de la facturación global, con fecha efectiva el 2 de agosto de 2026.

Muchas empresas desconocen que sus sistemas caen en el Anexo III: un sistema de puntuacion de empleados que determina promociones, una herramienta de cribado de CVs, o un modelo de scoring crediticio pueden estar en esta categoría sin que el equipo jurídico lo haya identificado.

Clasificación, documentación Anexo IV y evaluación de conformidad

Nuestro equipo comienza por la confirmación de clasificación: verificamos si el sistema cae en el Anexo III analizando el caso de uso real, la población afectada y el grado de autonomía del sistema. La clasificación incorrecta es la fuente más frecuente de riesgo regulatorio. A partir de la clasificación confirmada, gestionamos el ciclo completo: sistema de gestión de riesgos del artículo 9, documentación técnica del Anexo IV, evaluación de conformidad, marcado CE cuando procede, y sistema de monitoreo post-mercado.

Coordinamos con el equipo técnico que desarrollo o integro el sistema y con el área de protección de datos para alinear el AI Act con las obligaciones del RGPD cuando el sistema trata datos personales.

Contexto regulatorio: AI Act e interseccion con RGPD y EIPD

El AI Act (Reglamento UE 2024/1689), Artículo 6 y Anexo III, clasifica los sistemas de IA de alto riesgo. Las obligaciones para estos sistemas entran en vigor el 2 de agosto de 2026. La evaluación de conformidad puede ser autoevaluacion por el proveedor (mayoría de los casos del Anexo III) o por organismo notificado externo (biometria, infraestructuras críticas, aplicación de la ley en algunas categorías).

Las evaluaciones de impacto sobre derechos fundamentales del AI Act deben coordinarse con las EIPD del RGPD cuando el sistema trata datos personales. Un proceso integrado con nuestros equipos de governance de IA evita duplicidades y garantiza coherencia entre los dos marcos regulatorios.

Resultados que puedes esperar

  • Clasificación formal y documentada del sistema en la taxonomia del AI Act
  • Sistema de gestión de riesgos del artículo 9 implementado y operativo
  • Documentación técnica completa del Anexo IV lista para revisión por el organismo supervisor
  • Evaluación de conformidad gestionada con el procedimiento correcto para cada tipo de sistema
  • Registro en la base de datos de la UE antes de la comercialización
  • Sistema de monitoreo post-mercado con indicadores de rendimiento y equidad

El Anexo III del AI Act es la lista que más empresas necesitan conocer y menos han leido con detenimiento. Ocho categorías de sistemas de IA están sujetas a un régimen de obligaciones sustancialmente más exigente que el resto del Reglamento. La pregunta no es teorica: si su empresa usa IA para tomar o influir en decisiones sobre personas en alguno de estos contextos, las obligaciones de agosto de 2026 le afectan directamente.

La clasificación de un sistema como de alto riesgo no depende solo de la tecnología, sino del uso concreto que se hace de ella. Un sistema de reconocimiento facial usado internamente para control de acceso en una instalación puede no ser de alto riesgo; el mismo sistema usado para identificar personas en espacios públicos probablemente si lo es. Un modelo de machine learning que ayuda a los gestores a preparar evaluaciones de desempeño puede estar en una zona gris; el mismo modelo que genera puntuaciones que determinan directamente promociones o despidos probablemente cae en el Anexo III. La confirmación de clasificación es el primer servicio que ofrecemos porque es la base de todo lo demas.

La documentación técnica exigida por el Anexo IV es extensa y específica. No se trata de un documento descriptivo generico, sino de un conjunto de evidencias técnicas sobre como funciona el sistema, con que datos fue entrenado, como se evaluo su rendimiento, que sesgos fueron detectados y como se mitigaron, y como se garantiza la supervisión humana en su uso operativo. Preparar esta documentación requiere la colaboración entre el equipo legal y el equipo técnico que desarrolló o integró el sistema, un proceso que coordinamos de forma integral.

Para los sistemas de IA de alto riesgo que tratan datos personales —lo que incluye prácticamente todos los sistemas de selección de personal, scoring financiero e identificación biométrica—, el cumplimiento del AI Act debe coordinarse con las obligaciones del RGPD y la protección de datos. Las evaluaciones de impacto sobre derechos fundamentales del AI Act y las evaluaciones de impacto sobre la protección de datos (EIPD) del RGPD no son redundantes pero si se superponen: un proceso integrado evita duplicaciones y garantiza que los dos marcos de cumplimiento sean coherentes entre si.

El monitoreo post-mercado es quizá la obligación más subestimada del AI Act para sistemas de alto riesgo. No basta con cumplir al momento del despliegue: el Reglamento exige un sistema continuo de recogida y análisis de datos sobre el funcionamiento real del sistema. Esto implica definir indicadores de rendimiento y equidad, establecer umbrales de alerta que activen revisiones, y mantener registros que demuestren que el sistema sigue funcionando conforme a la evaluación de conformidad original. Diseñamos estos sistemas de monitoreo para que sean operativamente viables sin generar una carga desproporcionada sobre los equipos técnicos.

Resultados

La experiencia que nos respalda

Nuestro sistema de scoring para concesión de prestamos personales lleva tres años en producción. Cuando el equipo legal analizo el AI Act, quedo claro que estabamos en el Anexo III sin ninguna de las obligaciones cubiertas. BMC preparo toda la documentación técnica, gestionó la evaluación de conformidad y disenó el sistema de monitoreo. Cumplimos antes de la fecha límite sin interrumpir el negocio.

Credifin, Entidad de Crédito, S.A.
Director de Riesgos

Equipo con experiencia local y visión internacional

Que obtienes

Entregables concretos

Confirmación de clasificación Anexo III

Análisis jurídico y técnico para determinar si un sistema específico cae dentro de las categorías del Anexo III, considerando el uso real, la cadena de valor y la población afectada.

Sistema de gestión de riesgos (Art. 9)

Implementación del sistema de gestión de riesgos exigido por el AI Act: identificación de riesgos, evaluación de probabilidad e impacto, medidas de mitigacion y plan de revisión continua durante el ciclo de vida.

Documentación técnica completa (Anexo IV)

Preparación del conjunto completo de documentación técnica: descripción del sistema, datos de entrenamiento, metricas de rendimiento, análisis de sesgos, supervisión humana y plan de actualizaciones.

Evaluación de conformidad y marcado CE

Gestión del proceso de evaluación de conformidad: autoevaluacion con normas armonizadas o coordinación con organismos notificados, declaración de conformidad y proceso de marcado CE.

Registro UE y monitoreo post-mercado

Gestión del registro en la base de datos de la UE y diseño del sistema de monitoreo post-mercado con indicadores de rendimiento, equidad e incidentes graves.

FAQ

Preguntas frecuentes

El Anexo III del AI Act lista ocho categorías de alto riesgo: (1) biometria para identificación o categorizacion de personas, (2) gestión de infraestructuras críticas, (3) educación y formación profesional, (4) empleo, gestión de trabajadores y acceso al autoempleo, (5) acceso a servicios esenciales privados y públicos y prestaciones, (6) aplicación de la ley, (7) gestión de la migración y el asilo, y (8) administración de justicia y procesos democraticos. La Comisión Europea puede actualizar está lista mediante actos delegados.
La mayoría de los sistemas del Anexo III pueden someterse a una autoevaluacion de conformidad por el propio proveedor, siempre que sigan las normas técnicas armonizadas. Sin embargo, los sistemas de IA utilizados en biometria para identificación remota y determinados sistemas en los sectores de infraestructuras críticas y aplicación de la ley requieren evaluación por organismos notificados externos acreditados. Le ayudamos a determinar exactamente que procedimiento aplica.
El Anexo IV del AI Act exige una documentación técnica exhaustiva: descripción general del sistema y su propósito, descripción de los elementos del sistema y su proceso de desarrollo, datos de entrenamiento, validación y prueba utilizados, descripción de los riesgos y medidas de mitigacion, descripción del nivel de rendimiento esperado y metricas de evaluación, supervisión humana y medidas para la interpretación de los resultados, y descripción de los cambios en el sistema durante su ciclo de vida.
El responsable del despliegue (deployer) debe: usar el sistema según las instrucciones del proveedor, asignar supervisión humana a personas competentes, monitorear el funcionamiento del sistema e informar de incidentes graves, realizar evaluaciones de impacto sobre derechos fundamentales cuando el sistema afecte al público, informar a los trabajadores cuando el sistema les afecte, y conservar los registros de funcionamiento automático del sistema durante al menos seis meses.
El marcado CE en el AI Act certifica que el sistema de IA de alto riesgo ha superado el proceso de evaluación de conformidad aplicable y cumple los requisitos del Reglamento. Es obligatorio para los sistemas de alto riesgo antes de ser comercializados en la UE. El proceso es similar al marcado CE de otros productos regulados: implica la preparación de la documentación técnica, la declaración de conformidad y, en algunos casos, la intervención de un organismo notificado.
El artículo 27 del AI Act obliga a los responsables del despliegue de sistemas de alto riesgo que interactuen con el público a realizar una evaluación de impacto sobre los derechos fundamentales antes de poner el sistema en funcionamiento. Esta evaluación debe identificar los derechos fundamentales en juego, la probabilidad y gravedad del impacto sobre cada derecho, las medidas de mitigacion adoptadas y si es necesaria la supervisión de organismos relevantes.
El AI Act exige a los proveedores de sistemas de alto riesgo un sistema de monitoreo post-mercado que recoja y analice datos sobre el funcionamiento del sistema después de su comercialización. Este sistema debe detectar desviaciones de rendimiento, nuevos riesgos que no habian sido identificados durante el desarrollo, y posibles sesgos o efectos discriminatorios que emerjan en condiciones reales de uso. Los datos del monitoreo alimentan el proceso continuo de gestión de riesgos.
Los sistemas de IA utilizados para scoring crediticio o evaluación de la solvencia de personas físicas son de alto riesgo bajo el Anexo III. Las entidades financieras que usan IA para tomar o influir en decisiones de crédito, seguros o inversiones deben cumplir con el AI Act además de con la regulación sectorial (DORA, CRR, IDD). La superposicion normativa requiere un enfoque de compliance integrado que coordinamos con nuestras prácticas de regulación financiera.
Primer paso

Empieza con un diagnóstico gratuito

Nuestro equipo de especialistas, con profundo conocimiento del mercado español y europeo, te guiara desde el primer momento.

Sistemas de IA de Alto Riesgo

Legal

Primer paso

Empieza con un diagnóstico gratuito

Nuestro equipo de especialistas, con profundo conocimiento del mercado español y europeo, te guiara desde el primer momento.

25+
años de experiencia
5
oficinas en España
500+
clientes atendidos

Solicita tu diagnóstico

Respondemos en menos de 4 horas laborables

O llamenos directamente: 910 917 811

Llamar Contacto