Glosario empresarial
Reglamento de IA (AI Act)
El Reglamento de Inteligencia Artificial de la Unión Europea (AI Act) es el primer marco legal completo del mundo sobre inteligencia artificial. Clasifica los sistemas de IA según su nivel de riesgo —inaceptable, alto, limitado y mínimo— e impone obligaciones proporcionales a cada categoría, tanto a desarrolladores como a desplegadores de IA.
DigitalQué es el AI Act
El Reglamento (UE) 2024/1689, conocido como AI Act o Ley de IA, fue aprobado por el Parlamento Europeo en marzo de 2024 y entró en vigor el 2 de agosto de 2024. Su aplicación es progresiva, con plazos escalonados según la categoría de riesgo del sistema.
El AI Act adopta un enfoque basado en el riesgo: cuanto mayor es el potencial de daño de un sistema de IA, mayores son las obligaciones impuestas. Esto implica que la mayoría de los usos cotidianos de IA (filtros antispam, recomendaciones de contenido, asistentes de escritura) quedan prácticamente fuera de las obligaciones sustantivas, mientras que aplicaciones de mayor impacto —evaluación de crédito, selección de personal, gestión de infraestructuras críticas— están sometidas a requisitos estrictos.
Categorías de riesgo
Riesgo inaceptable (prohibido) Sistemas cuyo uso está terminantemente prohibido en la UE desde el 2 de febrero de 2025:
- Manipulación subliminal o explotación de vulnerabilidades psicológicas
- Sistemas de puntuación social (social scoring) por autoridades públicas
- Identificación biométrica en tiempo real en espacios públicos por fuerzas de seguridad (con excepciones tasadas)
- Inferencia de emociones en entornos laborales y educativos
- Categorización biométrica basada en características sensibles
Riesgo alto (aplicable desde 2 de agosto de 2026) Sistemas que se despliegan en ámbitos de alta sensibilidad: biometría, gestión de infraestructuras críticas, educación, empleo (selección y evaluación de empleados), servicios esenciales (crédito, seguros, asistencia social), aplicaciones de justicia y orden público, sistemas de migración y asilo. Para estos sistemas son obligatorios:
- Gestión de riesgos documentada
- Calidad y gobernanza de los datos de entrenamiento
- Documentación técnica y trazabilidad
- Transparencia e información al usuario
- Supervisión humana efectiva
- Registro en la base de datos de la UE antes del despliegue
Riesgo limitado Sistemas con obligaciones de transparencia: los chatbots deben informar al usuario de que interactúa con una IA; los deepfakes deben etiquetarse como contenido sintético.
Riesgo mínimo Sin obligaciones específicas (filtros de spam, videojuegos con IA, buscadores…). Pueden acogerse a códigos de conducta voluntarios.
Obligaciones para las empresas
El AI Act distingue entre proveedores (que desarrollan o ponen en el mercado sistemas de IA), desplegadores (que usan sistemas de IA en sus actividades) e importadores y distribuidores.
Las empresas que utilizan sistemas de IA de alto riesgo como herramientas de gestión (por ejemplo, un software de RRHH con IA para cribado de currículos) son desplegadores y deben:
- Realizar evaluaciones de conformidad antes del despliegue
- Asegurarse de que el sistema está correctamente registrado
- Implantar supervisión humana y garantizar que los empleados reciben formación adecuada
- Documentar incidentes graves y reportarlos a la autoridad competente
Plazos de aplicación
| Plazo | Contenido |
|---|---|
| 2 febrero 2025 | Prohibiciones de sistemas de riesgo inaceptable |
| 2 agosto 2025 | Normas de gobernanza y obligaciones de modelos de uso general (GPAI) |
| 2 agosto 2026 | Obligaciones completas para sistemas de alto riesgo |
| 2 agosto 2027 | Sistemas de IA de alto riesgo integrados en productos regulados |
Sanciones
Las sanciones son de las más elevadas del derecho digital europeo:
- Sistemas prohibidos: hasta 35 millones de euros o el 7% del volumen de negocio mundial anual
- Sistemas de alto riesgo (incumplimiento): hasta 15 millones o el 3%
- Información incorrecta a autoridades: hasta 7,5 millones o el 1,5%
Relación con el RGPD
El AI Act y el RGPD son regulaciones complementarias. Muchos sistemas de IA procesan datos personales, por lo que deben cumplir ambos marcos. La Evaluación de Impacto en Protección de Datos (EIPD) del RGPD y la evaluación de conformidad del AI Act pueden realizarse de forma coordinada para evitar duplicidades.
Preguntas frecuentes
¿Cuándo se aplica el AI Act de la UE a las empresas españolas?
¿Qué organismo español supervisa el cumplimiento del AI Act?
¿Cuáles son las sanciones por incumplir el AI Act en España?
¿El AI Act sustituye a las obligaciones del RGPD en España?
¿Qué es un sistema de IA de alto riesgo según el AI Act?
Servicio relacionado
Descubra nuestros servicios en esta área
Sectores relacionados
Términos relacionados
Artículos relacionados
feb 2025
AI Act: obligaciones para sistemas de alto riesgo
mar 2026
IA y responsabilidad del administrador: el nuevo estándar de diligencia tras el AI Act
may 2024
Reglamento IA europeo publicado: lo que las empresas deben saber
ene 2024
Informe Anual Legal 2023: Ley Whistleblower, Ley de Vivienda y preparación para el AI Act
Solicite una consulta personalizada
Nuestros expertos están listos para analizar su situación y ofrecerle soluciones a medida.