Ir al contenido

AI Act: Cumpla el Reglamento Europeo de IA antes de las Sanciones

Adaptación al Reglamento Europeo de Inteligencia Artificial: clasificación de riesgos, evaluaciones de conformidad, obligaciones de transparencia y prohibiciones vigentes.

35M€
Sanción máxima por prácticas de IA prohibidas (AI Act)
Ago 2026
Fecha límite para obligaciones de sistemas de alto riesgo
7%
De facturación global: multa máxima para proveedores de IA
4.8/5 en Google · 50+ reseñas 25+ años de experiencia 5 oficinas en España 500+ clientes
Fecha límite 2 de febrero de 2025 (en vigor)

AI Act prohibiciones

Las prácticas de IA prohibidas ya son sancionables. Sistemas de alto riesgo: agosto 2026

Evaluación rápida

Aplica esto a tu empresa?

¿Tiene su empresa un inventario de todos los sistemas de IA que despliega o utiliza en sus procesos?

¿Sabe si alguno de sus sistemas de IA cae en las categorías prohibidas o de alto riesgo del AI Act?

¿Ha revisado si las prácticas de IA de su empresa cumplen con las prohibiciones vigentes desde agosto de 2025?

¿Cuenta con documentación técnica, políticas de supervisión humana y procedimientos de gestión de riesgos para sus sistemas de IA?

0 respondidas de 4 preguntas

Nuestro enfoque

Como trabajamos

01

Inventario y clasificación de sistemas de IA

Identificamos todos los sistemas de IA que su empresa despliega, desarrolla o utiliza como proveedor o responsable del despliegue. Clasificamos cada sistema en la categoría de riesgo correcta: inaceptable, alto riesgo, riesgo limitado o riesgo mínimo.

02

Gap analysis regulatorio

Para cada sistema identificado, analizamos las obligaciones aplicables y el grado de cumplimiento actual: documentación técnica, medidas de transparencia, supervisión humana, gestión de riesgos y obligaciones de registro en la base de datos de la UE.

03

Plan de cumplimiento y remediacion

Priorizamos las acciones correctoras en función del riesgo, los plazos normativos y el impacto operativo. Diseñamos políticas internas de IA, procedimientos de evaluación de conformidad y estructuras de gobernanza.

04

Implementación y seguimiento normativo

Acompañamos la implementación de los controles técnicos y organizativos, preparamos la documentación requerida y monitorizamos los cambios normativos y las guías interpretativas del AI Office europeo.

El desafio

El Reglamento de IA de la UE es la regulación más exigente del mundo sobre inteligencia artificial. Las prohibiciones para prácticas de IA inaceptables son efectivas desde agosto de 2025, y las obligaciones para sistemas de alto riesgo entran en vigor en agosto de 2026. Las multas pueden alcanzar los 35 millones de euros o el 7% de la facturación global. La mayoría de las empresas no saben en que categoría caen sus sistemas de IA.

Nuestra solución

Realizamos el mapa completo de sistemas de IA de su organización, los clasificamos por nivel de riesgo según el Reglamento, identificamos las obligaciones aplicables y diseñamos el plan de cumplimiento. Desde las políticas de uso aceptable hasta las evaluaciones de conformidad para sistemas de alto riesgo, acompañamos cada etapa del proceso.

El Reglamento de Inteligencia Artificial de la Unión Europea (AI Act, Reglamento UE 2024/1689), publicado en el Diario Oficial de la UE en julio de 2024, es el primer marco regulatorio integral sobre IA del mundo y establece obligaciones diferenciadas según la categoría de riesgo del sistema: prácticas inaceptables prohibidas desde agosto de 2025, sistemas de alto riesgo (Anexo III: selección de personal, scoring crediticio, aplicación de la ley, educación, infraestructuras críticas, justicia) con obligaciones de documentación técnica, evaluación de conformidad, registro en la base de datos de la UE y marcado CE desde agosto de 2026, y sistemas de riesgo limitado con obligaciones de transparencia. Las multas por incumplimiento pueden alcanzar 35 millones de euros o el 7% de la facturación global del grupo para las prohibiciones más graves, y 15 millones o el 3% para las infracciones aplicables a sistemas de alto riesgo.

Nuestro equipo de cumplimiento normativo tecnológico combina conocimiento jurídico del Reglamento de IA con experiencia práctica en sistemas de información, gobernanza de datos y regulación digital europea.

Que empresas están en riesgo de sanción por el AI Act

Muchas empresas españolas han integrado sistemas de IA en sus procesos sin saber que, bajo el AI Act europeo, pueden estar operando sistemas de alto riesgo sin ninguna de las obligaciones cubiertas. El cumplimiento del AI Act clasifica como alto riesgo los sistemas de IA en selección de personal, scoring crediticio, atención al cliente con efectos legales, videovigilancia y otros casos de uso frecuentes en empresas medianas. Las prohibiciones absolutas — manipulación subliminal, puntuacion social, identificación biométrica en tiempo real — son exigibles desde agosto de 2025. Las multas pueden alcanzar los 35 millones de euros o el 7% de la facturación global. El riesgo real no es futuro: es presente.

  • Empresas que usan IA para cribar candidatos sin saber que eso es Anexo III
  • Plataformas de marketing con segmentacion automatizada sin evaluar el nivel de riesgo
  • Sistemas de scoring de crédito o seguros que requieren evaluación de conformidad
  • Contratos con proveedores de IA sin asignación correcta de responsabilidades del Reglamento

Como implementamos el plan de adecuación al AI Act

Nuestro equipo de especialistas realiza el inventario completo de sistemas de IA de la organización — los desarrollados internamente, los comprados a terceros y los embebidos en herramientas SaaS — y los clasifica en la taxonomia del AI Act. A partir de esa clasificación, diseñamos el plan de cumplimiento priorizado por riesgo y por plazo normativo. No empezamos por la documentación: empezamos por saber exactamente que sistemas existen y que obligaciones generan. Este enfoque pragmático reduce el tiempo del proyecto y evita el esfuerzo desperdiciado en sistemas que no requieren compliance sustancial.

Para los sistemas de alto riesgo, diseñamos e implementamos el sistema de gestión de riesgos del artículo 9, preparamos la documentación técnica del Anexo IV, establecemos los mecanismos de supervisión humana y gestionamos el registro en la base de datos de la UE. Coordinamos con el equipo técnico que desarrollo o integro el sistema y con el área de protección de datos para alinear el cumplimiento del AI Act con las obligaciones del RGPD.

Marco regulatorio del AI Act en España

El AI Act (Reglamento UE 2024/1689) es de aplicación directa en toda la UE. Sus prohibiciones absolutas son exigibles desde agosto de 2025. Las obligaciones para sistemas de alto riesgo del Anexo III entran en vigor el 2 de agosto de 2026. Las sanciones van desde 7,5 millones (información incorrecta) hasta 35 millones o el 7% de la facturación global (prácticas prohibidas). La autoridad competente en España será la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), actualmente en constitución. El AI Office europeo coordina la supervisión de modelos GPAI de riesgo sistemico.

El AI Act se superpone con el RGPD cuando los sistemas tratan datos personales — la gran mayoría — y con DORA para sistemas de IA en entidades financieras. Las evaluaciones de impacto del AI Act y las EIPD del RGPD deben coordinarse para evitar duplicaciones y garantizar coherencia.

Resultados que puedes esperar

  • Inventario completo de sistemas de IA con clasificación formal por nivel de riesgo
  • Identificación de sistemas que requieren acción prioritaria antes de agosto de 2026
  • Documentación técnica del Anexo IV preparada para sistemas de alto riesgo
  • Plan de cumplimiento priorizado con calendario de implementación realista
  • Revisión de contratos con proveedores de IA para asignación correcta de responsabilidades
  • Marco de gobernanza interna que facilita el cumplimiento continuo ante actualizaciones normativas

La gobernanza de IA interna es el complemento necesario del cumplimiento normativo externo. Las empresas que gestionan bien sus sistemas de IA no solo evitan sanciones: construyen activos de confianza con clientes, socios y reguladores que generan ventaja competitiva real en un mercado donde la opacidad algoritmica es cada vez menos aceptada. El mapa de riesgos de cumplimiento permite integrar el AI Act en la visión regulatoria consolidada de la empresa.

Resultados

La experiencia que nos respalda

Nuestro equipo de producto habia integrado varios modelos de lenguaje en procesos de selección de personal sin saber que eso nos situaba directamente en la categoría de alto riesgo del AI Act. BMC hizo el inventario completo, nos explico las obligaciones concretas y diseño un plan de cumplimiento que implementamos en cuatro meses antes de la entrada en vigor de las obligaciones clave.

Recrutek Solutions, S.L.
Chief Technology Officer

Equipo con experiencia local y visión internacional

Que obtienes

Entregables concretos

Inventario y clasificación de riesgos de IA

Mapa completo de sistemas de IA en uso, desarrollo o comercialización, con clasificación formal por categoría de riesgo según el Reglamento y análisis de la cadena de valor (proveedor, importador, distribuidor, responsable del despliegue).

Gap analysis y plan de cumplimiento

Análisis de brechas entre la situación actual y las obligaciones aplicables a cada sistema, con plan de acción priorizado por riesgo y plazos normativos.

Evaluaciones de conformidad

Diseñamos y ejecutamos el proceso de evaluación de conformidad para sistemas de alto riesgo: documentación técnica, registro de incidentes, análisis de sesgo, pruebas de robustez y preparación para organismos notificados cuando procede.

Políticas internas de IA y gobernanza

Redacción de políticas de uso aceptable de IA, marcos de gobernanza interna, procedimientos de supervisión humana y mecanismos de notificación de incidentes alineados con el AI Act.

Formación y actualización normativa

Formación a equipos de tecnología, compliance y dirección sobre las obligaciones del AI Act, y seguimiento continuo de las guías del AI Office europeo y los actos delegados que complementan el Reglamento.

FAQ

Preguntas frecuentes

El AI Act se aplica a cualquier empresa que coloque sistemas de IA en el mercado de la UE o que los utilice en la UE, independientemente de donde este establecida la empresa. Afecta tanto a proveedores que desarrollan y venden sistemas de IA como a responsables del despliegue que los integran en sus procesos. Las empresas fuera de la UE que venden o usan IA con efecto en ciudadanos europeos también quedan sujetas.
El AI Act prohibe con carácter absoluto los sistemas de IA de riesgo inaceptable: manipulación subliminal o explotación de vulnerabilidades, puntuacion social generalizada por parte de entidades públicas, identificación biométrica remota en tiempo real en espacios públicos (con excepciones tasadas), reconocimiento de emociones en contextos laborales y educativos, y sistemas de categorizacion biométrica para inferir datos sensibles como raza u orientación sexual.
El Anexo III del Reglamento lista las categorías de alto riesgo: IA en infraestructuras críticas, sistemas educativos de evaluación de alumnos, IA en selección de personal y evaluación del desempeño, IA para acceso a servicios esenciales (crédito, seguro), sistemas de aplicación de la ley, IA en migración y asilo, y IA en la administración de justicia. Estos sistemas requieren evaluación de conformidad, documentación técnica detallada y, en muchos casos, registro previo.
El responsable del despliegue debe garantizar el uso del sistema conforme a las instrucciones del proveedor, implementar supervisión humana efectiva, notificar incidentes graves a las autoridades, informar a los empleados cuando se utilice IA que les afecte, y realizar evaluaciones de impacto sobre los derechos fundamentales cuando el sistema afecte al público. También debe mantener registros de funcionamiento.
Los modelos GPAI (como los grandes modelos de lenguaje) tienen un régimen propio. Sus proveedores deben proporcionar documentación técnica, cumplir con la normativa de derechos de autor en los datos de entrenamiento, y publicar un resumen del contenido utilizado. Los modelos con riesgo sistemico (con capacidades superiores a 10^25 FLOPs de cálculo de entrenamiento) tienen obligaciones adicionales: evaluaciones adversariales, notificación de incidentes graves y medidas de ciberseguridad reforzadas.
Las multas son las más elevadas de la regulación tecnológica europea: hasta 35 millones de euros o el 7% de la facturación global anual por infracciones de las prohibiciones; hasta 15 millones o el 3% por incumplimiento de otras obligaciones; y hasta 7,5 millones o el 1,5% por suministro de información incorrecta. Para PYMES y startups se aplican límites menores.
Depende de la categoría. La mayoría de los sistemas del Anexo III pueden someterse a una autoevaluacion por el propio proveedor siempre que sigan las normas armonizadas. Sin embargo, los sistemas en sectores como biometria, infraestructuras críticas o aplicación de la ley en algunas categorías requieren evaluación por organismos notificados externos. Le ayudamos a determinar que procedimiento aplica a cada sistema.
El AI Act y el RGPD son complementarios y se superponen con frecuencia, especialmente cuando los sistemas de IA tratan datos personales. Las evaluaciones de impacto del AI Act para derechos fundamentales deben coordinarse con las evaluaciones de impacto sobre protección de datos (EIPD) del RGPD. Nuestro equipo integra ambas normativas en un proceso conjunto para evitar duplicaciones y garantizar la coherencia del marco de cumplimiento.
Primer paso

Empieza con un diagnóstico gratuito

Nuestro equipo de especialistas, con profundo conocimiento del mercado español y europeo, te guiara desde el primer momento.

Cumplimiento del Reglamento de IA (AI Act)

Legal

Primer paso

Empieza con un diagnóstico gratuito

Nuestro equipo de especialistas, con profundo conocimiento del mercado español y europeo, te guiara desde el primer momento.

25+
años de experiencia
5
oficinas en España
500+
clientes atendidos

Solicita tu diagnóstico

Respondemos en menos de 4 horas laborables

O llamenos directamente: 910 917 811

Llamar Contacto