Ir al contenido

IA Alto Riesgo: Prepare sus Sistemas para el AI Act

Cumplimiento del AI Act para sistemas de IA de alto riesgo: evaluaciones de conformidad, documentación técnica, marcado CE y seguimiento post-mercado.

8
Categorías de alto riesgo en el Anexo III del AI Act
15M€
Sanción máxima por incumplimiento de obligaciones de alto riesgo
Ago 2026
Fecha efectiva de las obligaciones para sistemas de alto riesgo
4.8/5 en Google · 50+ reseñas 25+ años de experiencia 5 oficinas en España 500+ clientes
Evaluación rápida

Aplica esto a tu empresa?

¿Ha verificado formalmente si sus sistemas de IA caen en alguna de las ocho categorías de alto riesgo del Anexo III del AI Act?

¿Dispone de la documentación técnica completa exigida por el Anexo IV del Reglamento para sus sistemas de IA críticos?

¿Cuenta con un sistema de gestión de riesgos formal y un proceso de evaluación de conformidad para sus sistemas de IA de alto riesgo?

¿Ha implementado supervisión humana efectiva y monitoreo post-mercado para los sistemas de IA que afectan a decisiones sobre personas?

0 respondidas de 4 preguntas

Como trabajamos

01

Confirmación de clasificación y alcance

Verificamos si el sistema cae dentro de las categorías del Anexo III del AI Act, analizando el caso de uso real, la población afectada y el grado de autonomía del sistema. La clasificación incorrecta es la fuente más frecuente de riesgo regulatorio.

02

Diseño del sistema de gestión de riesgos

Implementamos el sistema de gestión de riesgos exigido por el artículo 9 del AI Act: identificación y evaluación de riesgos conocibles, medidas de mitigacion, pruebas de robustez y plan de revisión continua durante todo el ciclo de vida del sistema.

03

Documentación técnica y evaluación de conformidad

Preparamos el conjunto completo de documentación técnica exigido por el Anexo IV: descripción del sistema, datos de entrenamiento, metricas de rendimiento, medidas de supervisión humana y análisis de riesgos. Gestionamos el proceso de evaluación de conformidad, incluyendo la coordinación con organismos notificados cuando es necesario.

04

Registro UE, marcado CE y monitoreo post-mercado

Gestionamos el registro del sistema en la base de datos de la UE antes de su comercialización, coordinamos el proceso de marcado CE para los sistemas que lo requieren y diseñamos el sistema de monitoreo post-mercado con los indicadores de rendimiento y equidad requeridos.

El desafio

El Anexo III del AI Act clasifica como alto riesgo los sistemas de IA en sectores críticos: selección de personal, scoring crediticio, aplicación de la ley, educación, infraestructuras críticas y justicia. Para estos sistemas las obligaciones son sustanciales — documentación técnica, evaluación de conformidad, registro en la UE — y las sanciones por incumplimiento pueden alcanzar los 15 millones de euros. Muchas empresas desconocen que sus sistemas caen en esta categoría.

Nuestra solución

Gestionamos el ciclo completo de cumplimiento para sistemas de IA de alto riesgo: desde la confirmación de la clasificación hasta la documentación técnica, la evaluación de conformidad, el marcado CE cuando procede y el sistema de monitoreo post-mercado. Actuamos como asesor técnico y jurídico integral para proveedores y responsables del despliegue.

Los sistemas de inteligencia artificial de alto riesgo son aquellos enumerados en el Anexo III del Reglamento (UE) 2024/1689 (AI Act) que, por su potencial impacto sobre los derechos fundamentales, están sujetos a un régimen de obligaciones reforzado: gestión de riesgos (art. 9), documentación técnica exhaustiva (Anexo IV), supervisión humana (art. 14), evaluación de conformidad y registro en la base de datos de la UE antes de su comercialización. Las ocho categorías del Anexo III incluyen sistemas de identificación biométrica, gestión de infraestructuras críticas, selección de personal, scoring crediticio, evaluación educativa, aplicación de la ley, gestión de la migración y administración de justicia. Las obligaciones para estos sistemas son aplicables desde el 2 de agosto de 2026, con sanciones por incumplimiento de hasta 15 millones de euros o el 3% de la facturación global anual.

Sistemas de IA de alto riesgo (Anexo III): las 8 categorías que más empresas ignoran

El Anexo III del AI Act es la lista que más empresas necesitan conocer y menos han leido con detenimiento. Ocho categorías de sistemas de IA — selección de personal, scoring crediticio, gestión de infraestructuras críticas, sistemas educativos, aplicación de la ley, migración, administración de justicia e identificación biométrica — están sujetas a un régimen de obligaciones sustancialmente más exigente que el resto del Reglamento. Las sanciones por incumplimiento pueden alcanzar 15 millones de euros o el 3% de la facturación global, con fecha efectiva el 2 de agosto de 2026.

Muchas empresas desconocen que sus sistemas caen en el Anexo III: un sistema de puntuacion de empleados que determina promociones, una herramienta de cribado de CVs, o un modelo de scoring crediticio pueden estar en esta categoría sin que el equipo jurídico lo haya identificado.

Clasificación, documentación Anexo IV y evaluación de conformidad

Nuestro equipo comienza por la confirmación de clasificación: verificamos si el sistema cae en el Anexo III analizando el caso de uso real, la población afectada y el grado de autonomía del sistema. La clasificación incorrecta es la fuente más frecuente de riesgo regulatorio. A partir de la clasificación confirmada, gestionamos el ciclo completo: sistema de gestión de riesgos del artículo 9, documentación técnica del Anexo IV, evaluación de conformidad, marcado CE cuando procede, y sistema de monitoreo post-mercado.

Coordinamos con el equipo técnico que desarrollo o integro el sistema y con el área de protección de datos para alinear el AI Act con las obligaciones del RGPD cuando el sistema trata datos personales.

Contexto regulatorio: AI Act e interseccion con RGPD y EIPD

El AI Act (Reglamento UE 2024/1689), Artículo 6 y Anexo III, clasifica los sistemas de IA de alto riesgo. Las obligaciones para estos sistemas entran en vigor el 2 de agosto de 2026. La evaluación de conformidad puede ser autoevaluacion por el proveedor (mayoría de los casos del Anexo III) o por organismo notificado externo (biometria, infraestructuras críticas, aplicación de la ley en algunas categorías).

Las evaluaciones de impacto sobre derechos fundamentales del AI Act deben coordinarse con las EIPD del RGPD cuando el sistema trata datos personales. Un proceso integrado con nuestros equipos de governance de IA evita duplicidades y garantiza coherencia entre los dos marcos regulatorios.

Resultados que puedes esperar

  • Clasificación formal y documentada del sistema en la taxonomia del AI Act
  • Sistema de gestión de riesgos del artículo 9 implementado y operativo
  • Documentación técnica completa del Anexo IV lista para revisión por el organismo supervisor
  • Evaluación de conformidad gestionada con el procedimiento correcto para cada tipo de sistema
  • Registro en la base de datos de la UE antes de la comercialización
  • Sistema de monitoreo post-mercado con indicadores de rendimiento y equidad

El Anexo III del AI Act es la lista que más empresas necesitan conocer y menos han leido con detenimiento. Ocho categorías de sistemas de IA están sujetas a un régimen de obligaciones sustancialmente más exigente que el resto del Reglamento. La pregunta no es teorica: si su empresa usa IA para tomar o influir en decisiones sobre personas en alguno de estos contextos, las obligaciones de agosto de 2026 le afectan directamente.

La clasificación de un sistema como de alto riesgo no depende solo de la tecnología, sino del uso concreto que se hace de ella. Un sistema de reconocimiento facial usado internamente para control de acceso en una instalación puede no ser de alto riesgo; el mismo sistema usado para identificar personas en espacios públicos probablemente si lo es. Un modelo de machine learning que ayuda a los gestores a preparar evaluaciones de desempeño puede estar en una zona gris; el mismo modelo que genera puntuaciones que determinan directamente promociones o despidos probablemente cae en el Anexo III. La confirmación de clasificación es el primer servicio que ofrecemos porque es la base de todo lo demas.

La documentación técnica exigida por el Anexo IV es extensa y específica. No se trata de un documento descriptivo generico, sino de un conjunto de evidencias técnicas sobre como funciona el sistema, con que datos fue entrenado, como se evaluo su rendimiento, que sesgos fueron detectados y como se mitigaron, y como se garantiza la supervisión humana en su uso operativo. Preparar esta documentación requiere la colaboración entre el equipo legal y el equipo técnico que desarrolló o integró el sistema, un proceso que coordinamos de forma integral.

Para los sistemas de IA de alto riesgo que tratan datos personales —lo que incluye prácticamente todos los sistemas de selección de personal, scoring financiero e identificación biométrica—, el cumplimiento del AI Act debe coordinarse con las obligaciones del RGPD y la protección de datos. Las evaluaciones de impacto sobre derechos fundamentales del AI Act y las evaluaciones de impacto sobre la protección de datos (EIPD) del RGPD no son redundantes pero si se superponen: un proceso integrado evita duplicaciones y garantiza que los dos marcos de cumplimiento sean coherentes entre si.

El monitoreo post-mercado es quizá la obligación más subestimada del AI Act para sistemas de alto riesgo. No basta con cumplir al momento del despliegue: el Reglamento exige un sistema continuo de recogida y análisis de datos sobre el funcionamiento real del sistema. Esto implica definir indicadores de rendimiento y equidad, establecer umbrales de alerta que activen revisiones, y mantener registros que demuestren que el sistema sigue funcionando conforme a la evaluación de conformidad original. Diseñamos estos sistemas de monitoreo para que sean operativamente viables sin generar una carga desproporcionada sobre los equipos técnicos.

Marco regulador: AI Act Reglamento (UE) 2024/1689 y su estructura normativa

El Reglamento (UE) 2024/1689, publicado en el Diario Oficial de la UE el 12 de julio de 2024, es la primera regulación integral de la inteligencia artificial en el mundo. Su estructura de obligaciones para los sistemas de alto riesgo se articula en los siguientes preceptos clave:

Artículo 6 y Anexo III (clasificación de alto riesgo): define las ocho categorías de sistemas de IA de alto riesgo y los criterios de clasificación. La interpretación del Anexo III debe hacerse a la luz de las Directrices de Clasificación que la Comisión Europea está desarrollando (previstas para el segundo semestre de 2025).

Artículo 9 (sistema de gestión de riesgos): obliga a los proveedores de sistemas de alto riesgo a establecer, implementar, documentar y mantener un sistema de gestión de riesgos durante todo el ciclo de vida del sistema de IA, identificando, analizando y evaluando los riesgos razonablemente previsibles.

Artículo 10 (datos y gobernanza de datos): exige que los datos de entrenamiento, validación y prueba sean pertinentes, representativos, libres de errores en la medida de lo posible y completos. Para sistemas que tratan datos de grupos específicos, obliga a analizar y gestionar posibles sesgos que puedan dar lugar a riesgos.

Artículo 13 (transparencia e información a los usuarios): obliga a diseñar el sistema de forma que sus instrucciones de uso permitan a los usuarios comprender las capacidades y limitaciones del sistema y interpretar correctamente sus resultados.

Artículo 14 (supervisión humana): exige que los sistemas de IA de alto riesgo sean diseñados para permitir que personas físicas supervisen eficazmente su funcionamiento durante el período de uso, con la posibilidad de detener, ignorar, anular o revertir los resultados del sistema.

Artículo 17 (sistema de gestión de calidad): los proveedores deben contar con un sistema de gestión de calidad que cubra toda la cadena de desarrollo, desde el diseño hasta la post-comercialización, con documentación actualizada y procedimientos de gestión de incidentes graves.

Anexo IV (documentación técnica): establece el contenido mínimo de la documentación técnica que debe prepararse antes de la comercialización y mantenerse actualizada, incluyendo descripción del sistema, datos de entrenamiento, evaluación de rendimiento, análisis de riesgos y medidas de supervisión humana.

Las sanciones máximas para el incumplimiento de las obligaciones aplicables a los sistemas de alto riesgo son de 15 millones de euros o el 3% de la facturación anual global total del ejercicio anterior (art. 99.3 AI Act), el importe que sea más elevado.

Procedimiento de conformidad: del diagnóstico a la certificación

El ciclo completo de cumplimiento para un sistema de IA de alto riesgo sigue las siguientes fases:

FaseContenidoDuración estimada
1. Confirmación de clasificaciónAnálisis del caso de uso real, población afectada y grado de autonomía frente al Anexo III1-2 semanas
2. Gap analysis de cumplimientoEvaluación del estado actual frente a los arts. 9, 10, 13, 14 y 17 y el Anexo IV2-3 semanas
3. Sistema de gestión de riesgos (art. 9)Identificación, análisis, evaluación y gestión de riesgos del ciclo de vida3-6 semanas
4. Gobernanza de datos (art. 10)Auditoría de datos de entrenamiento, validación de representatividad y análisis de sesgo2-4 semanas
5. Documentación técnica (Anexo IV)Redacción o revisión de la documentación técnica completa3-5 semanas
6. Evaluación de conformidadAutoevaluación o evaluación por organismo notificado según el tipo de sistema2-6 semanas
7. Registro en base de datos UEAlta en la base de datos de sistemas de IA de alto riesgo de la UE (art. 49)1-2 semanas
8. Sistema de monitoreo post-mercadoDiseño e implantación del sistema de monitoreo continuo (art. 72)2-4 semanas

Total estimado: 16-32 semanas para un sistema de tamaño mediano con documentación técnica parcialmente existente. Sistemas con documentación inexistente o datos de entrenamiento no documentados pueden requerir plazos adicionales.

Juzgado y autoridad supervisora competente

La autoridad nacional competente para la supervisión del AI Act en España aún no ha sido designada formalmente en el momento de la publicación de este contenido (la LO española de adaptación está en proceso). La Agencia Española de Protección de Datos (AEPD) ha sido identificada como supervisora para los aspectos relacionados con el RGPD, y la Secretaría de Estado de Digitalización está coordinando la designación de la autoridad de mercado para el AI Act.

En el plano europeo, la Oficina de IA (AI Office) de la Comisión Europea tiene competencia para supervisar los sistemas de IA de propósito general (GPAIs) y actuar como supervisora de las autoridades nacionales en el marco del AI Act.

En caso de litigio por sanciones, la competencia recae en los Juzgados Centrales de lo Contencioso-Administrativo para resoluciones del ámbito nacional, y en el Tribunal de Justicia de la UE para impugnaciones de decisiones de la Comisión Europea o de la Oficina de IA.

Caso práctico: sistema de IA para evaluación de crédito al consumo en una fintech española

Situación: fintech española con 85 empleados que opera una plataforma de préstamos personales digitales. Su sistema de scoring crediticio basado en machine learning analiza más de 200 variables para aprobar o rechazar solicitudes de crédito de hasta 15.000€ en tiempo real. El sistema lleva en producción desde 2023 con un volumen de 45.000 decisiones/mes.

Clasificación: el sistema cae claramente en el Anexo III, categoría 5 (sistemas de IA utilizados para evaluar la solvencia de personas físicas o establecer su puntuación de crédito), con fecha de cumplimiento obligatorio el 2 de agosto de 2026.

Gap analysis: cinco brechas críticas identificadas — (1) ausencia de sistema de gestión de riesgos documentado conforme al art. 9; (2) datos de entrenamiento históricos (2019-2022) con subrepresentación de solicitantes menores de 30 años y autónomos, incumpliendo el art. 10; (3) interfaz de usuario sin explicación comprensible del resultado para el solicitante rechazado, incumpliendo el art. 13; (4) proceso de revisión humana sin documentación del procedimiento ni responsable designado, incumpliendo el art. 14; (5) documentación técnica inexistente conforme al Anexo IV.

Solución implementada: sistema de gestión de riesgos del art. 9 diseñado en 5 semanas, con 12 riesgos identificados y planes de mitigación documentados. Reentramiento del modelo con datos de 2022-2025 con distribución más representativa, reduciendo el diferencial de tasa de rechazo entre grupos a menos del 5%. Rediseño de la interfaz para mostrar al solicitante rechazado las tres variables de mayor impacto negativo (sin revelar el modelo). Designación de un equipo de revisión humana para los casos en rango de incertidumbre (0,45-0,55 de probabilidad). Documentación técnica del Anexo IV completada en 8 semanas.

Resultado: sistema en conformidad 4 meses antes de la fecha límite. La empresa evitó sanciones potenciales de hasta 15M€ y documentó el proceso para futuras auditorías del supervisor nacional.

Cinco errores comunes que BMC corrige

  1. Asumir que la IA interna de gestión no cae en el Anexo III: sistemas de scoring de empleados para decisiones de promoción o despido (categoría 4 del Anexo III) o de evaluación de riesgo de absentismo caen en la clasificación de alto riesgo aunque sean de uso interno. Muchas empresas descartan el análisis sin haberlo verificado.

  2. Confundir el proveedor con el deployer: el AI Act distingue entre el proveedor (quien desarrolla o pone en el mercado el sistema) y el deployer (quien lo usa en un contexto profesional). Cada uno tiene obligaciones distintas. Usar un sistema de IA de tercero no exime de las obligaciones del deployer, que incluyen el art. 26 (garantizar la supervisión humana) y la notificación de incidentes graves.

  3. Tratar la documentación técnica como burocracia, no como herramienta de defensa: el Anexo IV no es un trámite formal. En caso de investigación regulatoria o litigio con un usuario afectado, la documentación técnica es la principal evidencia de que el sistema cumplía los requisitos de diseño. Una documentación incompleta o inconsistente con el funcionamiento real del sistema agrava la posición de la empresa.

  4. No coordinar AI Act y RGPD: el 80% de los sistemas de IA de alto riesgo que caen en el Anexo III también tratan datos personales y están sujetos al RGPD. Gestionar los dos marcos de cumplimiento de forma aislada genera inconsistencias y duplicidades costosas. La evaluación de impacto sobre derechos fundamentales del AI Act y la EIPD del RGPD deben hacerse de forma integrada.

  5. Subestimar el monitoreo post-mercado: el art. 72 del AI Act exige un sistema continuo de monitoreo que no termina con la certificación inicial. Los proveedores que tratan el cumplimiento como un proyecto de un solo disparo se encontrarán fuera de conformidad en la primera actualización del modelo o en el primer cambio significativo de las condiciones de uso.

La experiencia que nos respalda

Nuestro sistema de scoring para concesión de prestamos personales lleva tres años en producción. Cuando el equipo legal analizo el AI Act, quedo claro que estabamos en el Anexo III sin ninguna de las obligaciones cubiertas. BMC preparo toda la documentación técnica, gestionó la evaluación de conformidad y disenó el sistema de monitoreo. Cumplimos antes de la fecha límite sin interrumpir el negocio.

Credifin, Entidad de Crédito, S.A.
Director de Riesgos

Equipo con experiencia local y visión internacional

Entregables concretos

Confirmación de clasificación Anexo III

Análisis jurídico y técnico para determinar si un sistema específico cae dentro de las categorías del Anexo III, considerando el uso real, la cadena de valor y la población afectada.

Sistema de gestión de riesgos (Art. 9)

Implementación del sistema de gestión de riesgos exigido por el AI Act: identificación de riesgos, evaluación de probabilidad e impacto, medidas de mitigacion y plan de revisión continua durante el ciclo de vida.

Documentación técnica completa (Anexo IV)

Preparación del conjunto completo de documentación técnica: descripción del sistema, datos de entrenamiento, metricas de rendimiento, análisis de sesgos, supervisión humana y plan de actualizaciones.

Evaluación de conformidad y marcado CE

Gestión del proceso de evaluación de conformidad: autoevaluacion con normas armonizadas o coordinación con organismos notificados, declaración de conformidad y proceso de marcado CE.

Registro UE y monitoreo post-mercado

Gestión del registro en la base de datos de la UE y diseño del sistema de monitoreo post-mercado con indicadores de rendimiento, equidad e incidentes graves.

Guías de referencia

Abogado de empresa en Murcia: Asesoramiento legal para pymes, empresas agroalimentarias e industriales

Abogados especializados en derecho de empresa en Murcia. Constituciones, contratos mercantiles, disputas comerciales y asesoramiento legal continua para pymes murcianas.

Ver guía

Abogado de herencias en Alicante: tramite su herencia con herederos nacionales e internacionales

Abogados especialistas en herencias en Alicante. Tramitación del impuesto de sucesiones en la Comunitat Valenciana, herencias con herederos no residentes y conflictos hereditarios.

Ver guía

Abogado de herencias en Barcelona: tramite su herencia con la normativa catalana y sin conflictos

Abogados especialistas en herencias en Barcelona. Tramitación completa del impuesto de sucesiones en Cataluña, particion, testamentos y conflictos hereditarios.

Ver guía

Abogado de herencias en Bilbao: el régimen foral vasco y sus ventajas fiscales para herederos

Abogados especialistas en herencias en Bilbao. Tramitación del impuesto de sucesiones en el País Vasco bajo la normativa foral vizcaína, particion y conflictos hereditarios.

Ver guía

Abogado de herencias en Donostia: el régimen foral de Gipuzkoa y la bonificación del 95% en el ISD

Abogados especialistas en herencias en Donostia-San Sebastián. Tramitación bajo el derecho foral de Gipuzkoa, impuesto de sucesiones de la Diputación Foral y conflictos hereditarios.

Ver guía

Abogado de herencias en Girona: derecho catalán y herencias internacionales en la Costa Brava

Abogados especialistas en herencias en Girona. Tramitación bajo el Codi Civil de Catalunya, impuesto de sucesiones ante la ATC, herencias internacionales en la Costa Brava.

Ver guía

Responsable de este servicio

Sofia Navarro Estevez

Associate - Área Legal

LLM en Derecho Tecnológico y Regulación Digital, King's College London Licenciatura en Derecho, Universidade de Santiago de Compostela

3 años asesorando clientes internacionales

Preguntas frecuentes

El Anexo III del AI Act lista ocho categorías de alto riesgo: (1) biometria para identificación o categorizacion de personas, (2) gestión de infraestructuras críticas, (3) educación y formación profesional, (4) empleo, gestión de trabajadores y acceso al autoempleo, (5) acceso a servicios esenciales privados y públicos y prestaciones, (6) aplicación de la ley, (7) gestión de la migración y el asilo, y (8) administración de justicia y procesos democraticos. La Comisión Europea puede actualizar está lista mediante actos delegados.
La mayoría de los sistemas del Anexo III pueden someterse a una autoevaluacion de conformidad por el propio proveedor, siempre que sigan las normas técnicas armonizadas. Sin embargo, los sistemas de IA utilizados en biometria para identificación remota y determinados sistemas en los sectores de infraestructuras críticas y aplicación de la ley requieren evaluación por organismos notificados externos acreditados. Le ayudamos a determinar exactamente que procedimiento aplica.
El Anexo IV del AI Act exige una documentación técnica exhaustiva: descripción general del sistema y su propósito, descripción de los elementos del sistema y su proceso de desarrollo, datos de entrenamiento, validación y prueba utilizados, descripción de los riesgos y medidas de mitigacion, descripción del nivel de rendimiento esperado y metricas de evaluación, supervisión humana y medidas para la interpretación de los resultados, y descripción de los cambios en el sistema durante su ciclo de vida.
El responsable del despliegue (deployer) debe: usar el sistema según las instrucciones del proveedor, asignar supervisión humana a personas competentes, monitorear el funcionamiento del sistema e informar de incidentes graves, realizar evaluaciones de impacto sobre derechos fundamentales cuando el sistema afecte al público, informar a los trabajadores cuando el sistema les afecte, y conservar los registros de funcionamiento automático del sistema durante al menos seis meses.
El marcado CE en el AI Act certifica que el sistema de IA de alto riesgo ha superado el proceso de evaluación de conformidad aplicable y cumple los requisitos del Reglamento. Es obligatorio para los sistemas de alto riesgo antes de ser comercializados en la UE. El proceso es similar al marcado CE de otros productos regulados: implica la preparación de la documentación técnica, la declaración de conformidad y, en algunos casos, la intervención de un organismo notificado.
El artículo 27 del AI Act obliga a los responsables del despliegue de sistemas de alto riesgo que interactuen con el público a realizar una evaluación de impacto sobre los derechos fundamentales antes de poner el sistema en funcionamiento. Esta evaluación debe identificar los derechos fundamentales en juego, la probabilidad y gravedad del impacto sobre cada derecho, las medidas de mitigacion adoptadas y si es necesaria la supervisión de organismos relevantes.
El AI Act exige a los proveedores de sistemas de alto riesgo un sistema de monitoreo post-mercado que recoja y analice datos sobre el funcionamiento del sistema después de su comercialización. Este sistema debe detectar desviaciones de rendimiento, nuevos riesgos que no habian sido identificados durante el desarrollo, y posibles sesgos o efectos discriminatorios que emerjan en condiciones reales de uso. Los datos del monitoreo alimentan el proceso continuo de gestión de riesgos.
Los sistemas de IA utilizados para scoring crediticio o evaluación de la solvencia de personas físicas son de alto riesgo bajo el Anexo III. Las entidades financieras que usan IA para tomar o influir en decisiones de crédito, seguros o inversiones deben cumplir con el AI Act además de con la regulación sectorial (DORA, CRR, IDD). La superposicion normativa requiere un enfoque de compliance integrado que coordinamos con nuestras prácticas de regulación financiera.
Primer paso

Empieza con un diagnóstico gratuito

Nuestro equipo de especialistas, con profundo conocimiento del mercado español y europeo, te guiara desde el primer momento.

Sistemas de IA de Alto Riesgo

Legal

Hable con el socio del área

Respuesta en menos de 24h laborables. Primera reunión sin coste.

Servicios
Contacto
Insights