Ir al contenido

Glosario empresarial

Reglamento de IA (AI Act)

El Reglamento de Inteligencia Artificial de la Unión Europea (AI Act) es el primer marco legal completo del mundo sobre inteligencia artificial. Clasifica los sistemas de IA según su nivel de riesgo —inaceptable, alto, limitado y mínimo— e impone obligaciones proporcionales a cada categoría, tanto a desarrolladores como a desplegadores de IA.

Digital

Qué es el AI Act

El Reglamento (UE) 2024/1689, conocido como AI Act o Ley de IA, fue aprobado por el Parlamento Europeo en marzo de 2024 y entró en vigor el 2 de agosto de 2024. Su aplicación es progresiva, con plazos escalonados según la categoría de riesgo del sistema.

El AI Act adopta un enfoque basado en el riesgo: cuanto mayor es el potencial de daño de un sistema de IA, mayores son las obligaciones impuestas. Esto implica que la mayoría de los usos cotidianos de IA (filtros antispam, recomendaciones de contenido, asistentes de escritura) quedan prácticamente fuera de las obligaciones sustantivas, mientras que aplicaciones de mayor impacto —evaluación de crédito, selección de personal, gestión de infraestructuras críticas— están sometidas a requisitos estrictos.

Categorías de riesgo

Riesgo inaceptable (prohibido) Sistemas cuyo uso está terminantemente prohibido en la UE desde el 2 de febrero de 2025:

  • Manipulación subliminal o explotación de vulnerabilidades psicológicas
  • Sistemas de puntuación social (social scoring) por autoridades públicas
  • Identificación biométrica en tiempo real en espacios públicos por fuerzas de seguridad (con excepciones tasadas)
  • Inferencia de emociones en entornos laborales y educativos
  • Categorización biométrica basada en características sensibles

Riesgo alto (aplicable desde 2 de agosto de 2026) Sistemas que se despliegan en ámbitos de alta sensibilidad: biometría, gestión de infraestructuras críticas, educación, empleo (selección y evaluación de empleados), servicios esenciales (crédito, seguros, asistencia social), aplicaciones de justicia y orden público, sistemas de migración y asilo. Para estos sistemas son obligatorios:

  • Gestión de riesgos documentada
  • Calidad y gobernanza de los datos de entrenamiento
  • Documentación técnica y trazabilidad
  • Transparencia e información al usuario
  • Supervisión humana efectiva
  • Registro en la base de datos de la UE antes del despliegue

Riesgo limitado Sistemas con obligaciones de transparencia: los chatbots deben informar al usuario de que interactúa con una IA; los deepfakes deben etiquetarse como contenido sintético.

Riesgo mínimo Sin obligaciones específicas (filtros de spam, videojuegos con IA, buscadores…). Pueden acogerse a códigos de conducta voluntarios.

Obligaciones para las empresas

El AI Act distingue entre proveedores (que desarrollan o ponen en el mercado sistemas de IA), desplegadores (que usan sistemas de IA en sus actividades) e importadores y distribuidores.

Las empresas que utilizan sistemas de IA de alto riesgo como herramientas de gestión (por ejemplo, un software de RRHH con IA para cribado de currículos) son desplegadores y deben:

  • Realizar evaluaciones de conformidad antes del despliegue
  • Asegurarse de que el sistema está correctamente registrado
  • Implantar supervisión humana y garantizar que los empleados reciben formación adecuada
  • Documentar incidentes graves y reportarlos a la autoridad competente

Plazos de aplicación

PlazoContenido
2 febrero 2025Prohibiciones de sistemas de riesgo inaceptable
2 agosto 2025Normas de gobernanza y obligaciones de modelos de uso general (GPAI)
2 agosto 2026Obligaciones completas para sistemas de alto riesgo
2 agosto 2027Sistemas de IA de alto riesgo integrados en productos regulados

Sanciones

Las sanciones son de las más elevadas del derecho digital europeo:

  • Sistemas prohibidos: hasta 35 millones de euros o el 7% del volumen de negocio mundial anual
  • Sistemas de alto riesgo (incumplimiento): hasta 15 millones o el 3%
  • Información incorrecta a autoridades: hasta 7,5 millones o el 1,5%

Relación con el RGPD

El AI Act y el RGPD son regulaciones complementarias. Muchos sistemas de IA procesan datos personales, por lo que deben cumplir ambos marcos. La Evaluación de Impacto en Protección de Datos (EIPD) del RGPD y la evaluación de conformidad del AI Act pueden realizarse de forma coordinada para evitar duplicidades.

Preguntas frecuentes

¿Cuándo se aplica el AI Act de la UE a las empresas españolas?
El AI Act entró en vigor el 1 de agosto de 2024 con plazos escalonados. Las prácticas de IA prohibidas quedaron vetadas desde el 2 de febrero de 2025, las normas para los modelos de IA de uso general se aplican desde el 2 de agosto de 2025, y la mayoría de las obligaciones para sistemas de alto riesgo desde el 2 de agosto de 2026 o 2027. Las empresas españolas deben evaluar sus herramientas de IA frente a estos plazos de forma inmediata.
¿Qué organismo español supervisa el cumplimiento del AI Act?
España está estableciendo una Autoridad Nacional de Supervisión de IA dentro del marco regulatorio existente. La AEPD (Agencia Española de Protección de Datos) tiene un papel de supervisión significativo dada la intersección entre los riesgos de la IA y la privacidad bajo el RGPD, normativa que ya aplica. La Oficina Europea de IA supervisa el cumplimiento de los modelos GPAI a nivel europeo.
¿Cuáles son las sanciones por incumplir el AI Act en España?
Las multas pueden alcanzar los 35 millones de euros o el 7% del volumen de negocio mundial anual por prácticas de IA prohibidas, 15 millones o el 3% por incumplimientos en sistemas de alto riesgo, y 7,5 millones o el 1,5% por facilitar información incorrecta a las autoridades. Son algunas de las sanciones más elevadas de la regulación digital europea.
¿El AI Act sustituye a las obligaciones del RGPD en España?
No. El AI Act y el RGPD se aplican de forma concurrente. Cuando un sistema de IA procesa datos personales, ambos marcos se aplican simultáneamente. Puede ser necesaria una EIPD bajo el artículo 35 del RGPD junto con la evaluación de conformidad del AI Act. Las empresas españolas deben cumplir ambos regímenes a la vez.
¿Qué es un sistema de IA de alto riesgo según el AI Act?
Los sistemas de IA de alto riesgo incluyen los utilizados para el cribado de candidatos, la evaluación crediticia, la identificación biométrica y el acceso a servicios esenciales. Requieren un sistema de gestión de riesgos, documentación técnica, medidas de gobernanza de datos, mecanismos de supervisión humana y registro en la base de datos de IA de la UE antes de su despliegue.
Volver al glosario

Solicite una consulta personalizada

Nuestros expertos están listos para analizar su situación y ofrecerle soluciones a medida.

Llamar Contacto