KI-Gesetz (AI Act): Vollständiger Leitfaden für Unternehmen in Spanien — Pflichten, Fristen und Bußgelder nach der EU-KI-Verordnung
Der EU AI Act ist bereits in Kraft. Erfahren Sie, ob Ihr Unternehmen betroffen ist, welche Pflichten auf welcher Risikostufe gelten und welche Strafen bei Nichteinhaltung drohen.
Risikostufe meiner KI-Systeme bewerten- REAF
- ICAM
- 5 Standorte in Spanien
- 25+ Jahre
- 30+ Jurisdiktionen
Das Problem
Die Verordnung (EU) 2024/1689, bekannt als AI Act, trat am 1. August 2024 in Kraft und gilt stufenweise je nach Risikostufe der KI-Systeme. Verbotene KI-Praktiken gelten seit dem 2. Februar 2025. Verpflichtungen für Hochrisiko-KI-Systeme gelten ab dem 2. August 2026. Pflichten für KI-Modelle mit allgemeinem Verwendungszweck (GPAI) gelten seit August 2025. Das Problem, mit dem die meisten Unternehmen in Spanien konfrontiert sind, ist dreifach: Sie wissen nicht, ob ihre KI-Systeme in den Geltungsbereich der Verordnung fallen, sie wissen nicht, wie sie die Risikostufe der von ihnen genutzten oder eingesetzten Systeme klassifizieren sollen, und sie wissen nicht, welche praktischen Verpflichtungen für sie gelten. Eine Fehlklassifizierung des Risikos kann entweder bedeuten, kritische Verpflichtungen zu übersehen, oder Bußgeldern von bis zu 35 Millionen Euro oder 7% des weltweiten Umsatzes für die schwersten Verstöße ausgesetzt zu sein. Der AI Act betrifft nicht nur Unternehmen, die KI-Systeme entwickeln. Er betrifft alle Unternehmen, die Drittanbieter-KI-Systeme in kritischen Prozessen einsetzen — Personalwesen, Kreditscoring, Verwaltung kritischer Infrastrukturen — und solche, die KI-Systeme nutzen, um Entscheidungen zu treffen oder zu unterstützen, die Einzelpersonen erheblich beeinflussen. Der Geltungsbereich ist erheblich breiter als die meisten Unternehmen annehmen.
Unsere Lösung
BMC bietet einen AI-Act-Compliance-Service, der dort ansetzt, wo Ihr Unternehmen heute steht. Wir beginnen mit einer Bestandsaufnahme der KI-Systeme und einer Risikoklassifizierung nach den Kriterien der Verordnung, führen dann eine Lückenanalyse gegenüber den anwendbaren Verpflichtungen durch und entwickeln den KI-Governance-Rahmen, den das Unternehmen für eine nachhaltige Compliance benötigt. Unser interdisziplinäres Team kombiniert auf Technologieregulierung und Datenschutz spezialisierte Juristen mit KI-Governance-Experten, die sowohl die technische Dimension — wie KI-Systeme funktionieren, wie sie dokumentiert werden, wie sie geprüft werden — als auch die rechtliche Dimension verstehen — welche Verpflichtungen die Verordnung auferlegt, wie Compliance nachgewiesen wird, welche Aufzeichnungen zu führen sind. Wir integrieren die AI-Act-Compliance mit der DSGVO (KI-Systeme, die personenbezogene Daten verarbeiten, erzeugen Verpflichtungen nach beiden Rahmenwerken), mit den harmonisierten Standards, die die Europäische Kommission entwickelt, und mit internationalen KI-Governance-Rahmenwerken wie dem NIST AI RMF.
Wie wir vorgehen
Bestandsaufnahme und Klassifizierung von KI-Systemen
Wir identifizieren alle KI-Systeme, die das Unternehmen entwickelt, einsetzt oder in seinen Prozessen verwendet, und klassifizieren sie nach den vier Risikostufen des AI Act: inakzeptabel (verboten), hohes Risiko, begrenztes Risiko und minimales Risiko. Die Klassifizierung bestimmt, welche Verpflichtungen für jedes System und mit welcher Dringlichkeit gelten.
Lückenanalyse der Verpflichtungen
Für jedes identifizierte Hochrisiko-KI-System beurteilen wir die Compliance mit den Verpflichtungen der Verordnung: Trainings- und Eingabedaten, technische Dokumentation, Transparenz und Erklärbarkeit, menschliche Aufsicht, Genauigkeit und Robustheit, Systemcybersicherheit, Ereignisprotokollierung und Prüfbarkeit.
Compliance-Fahrplan
Wir entwickeln einen priorisierten Fahrplan zur Erreichung der Compliance: technische Dokumentation der Systeme, Konformitätsbewertung, Registrierung in der EU-Datenbank für Hochrisiko-KI-Systeme, Implementierung von Kontrollmechanismen für die menschliche Aufsicht und Anpassung von Verträgen mit KI-Lieferanten.
KI-Governance-Rahmen
Wir etablieren den organisatorischen KI-Governance-Rahmen: KI-Nutzungsrichtlinie, Bewertungsprozess für neue Systeme vor dem Einsatz, Rollen und Verantwortlichkeiten (einschließlich, wo anwendbar, einer KI-Beauftragten-Funktion), Mitarbeiterschulungen und Mechanismen zur periodischen Überwachung und Überprüfung des Rahmens.
Unseren Leitfaden herunterladen
Laden Sie unser AI-Act-Selbstbewertungstool herunter: klassifizieren Sie die Risikostufe Ihrer KI-Systeme in 15 Minuten
Der AI Act: das weltweit erste risikobasierte Rechtsrahmenwerk für KI
Die Verordnung (EU) 2024/1689 über künstliche Intelligenz, in Kraft seit dem 1. August 2024, ist das weltweit erste umfassende Rechtsrahmenwerk für künstliche Intelligenz. Anders als frühere sektorale Ansätze verfolgt der AI Act eine horizontale, risikobasierte Perspektive: Je höher das potenzielle Risiko eines KI-Systems für Grundrechte, Gesundheit und Sicherheit, desto größer die Verpflichtungen, die denen auferlegt werden, die es entwickeln oder einsetzen.
Die Verordnung gilt unmittelbar in allen EU-Mitgliedstaaten ohne nationale Umsetzung, was bedeutet, dass ihre Verpflichtungen in Spanien unabhängig davon gelten, ob nationales Umsetzungsrecht erlassen wurde. Die einzige relevante Ausnahme betrifft die vollen Durchsetzungsbefugnisse der nationalen Aufsichtsbehörde (AESIA), die einen nationalen Rechtsrahmen erfordern.
Zeitplan der AI-Act-Anwendung: was bereits verpflichtend ist
Der AI Act gilt nicht auf einmal. Er hat einen gestaffelten Zeitplan des Inkrafttretens, der wichtig zu verstehen ist:
1. August 2024 — Inkrafttreten: Die Verordnung ist geltendes Recht. Akteure müssen mit der Vorbereitung beginnen.
2. Februar 2025 — Verbote: Inakzeptable KI-Praktiken — unterschwellige Manipulation, Sozialscoring, Emotionserkennung in Arbeits- und Bildungsumgebungen, Echtzeit-Biometrie ohne Ausnahmen — sind ab diesem Datum verboten. Jedes Unternehmen, das diese Systeme betreibt, hätte sie einstellen müssen.
2. August 2025 — GPAI: KI-Modelle mit allgemeinem Verwendungszweck haben ab diesem Datum Dokumentations-, Transparenz- und Urheberrechtsverpflichtungen.
2. August 2026 — Hochrisikosysteme (Anhang III): Hochrisiko-KI-Systeme, die ab diesem Datum auf den Markt gebracht werden, müssen alle Kapitel-III-Verpflichtungen vor dem Einsatz erfüllen.
2. August 2027 — Eingebettete Hochrisikosysteme (Anhang I): Hochrisiko-KI-Systeme, die Komponenten von Produkten sind, die bereits durch andere EU-Richtlinien reguliert werden (Maschinen, Medizinprodukte, Luftfahrtprodukte), haben ein zusätzliches Jahr zur Anpassung.
Die vier Risikostufen und ihre praktischen Implikationen
Der AI Act klassifiziert KI-Systeme in vier Risikokategorien, jede mit einem unterschiedlichen Verpflichtungsregime:
Inakzeptables Risiko (verboten): Systeme, die wegen unzumutbarer Kompromittierung der Grundrechte verboten sind. Kein Unternehmen darf sie betreiben. Wenn ein interner Prozess solche Techniken verwendet, muss er vor Februar 2025 modifiziert worden sein.
Hohes Risiko: Systeme mit erheblichem potenziellem Einfluss auf Einzelpersonen in kritischen Bereichen. Am stärksten reguliert: verpflichtende technische Dokumentation, Konformitätsbewertung, europäische Registrierung, verpflichtende menschliche Aufsicht. Der Anhang-III-Katalog umfasst Situationen, die viele Unternehmen in Nicht-Technologiebranchen möglicherweise nicht als “Hochrisiko-KI” identifiziert haben — wie CV-Screening-Tools oder Kreditscoring-Systeme.
Begrenztes Risiko: Systeme, die mit Menschen interagieren — Chatbots, KI-generierte Inhalte — mit Transparenzpflichten: Nutzer müssen wissen, dass sie mit KI interagieren, dass Inhalte KI-generiert sind oder dass ihr Bild oder ihre Stimme KI-manipuliert wurde (Deepfakes). Generative Modelle wie Text-zu-Bild-Tools oder Kundendienst-Chatbots fallen in diese Kategorie.
Minimales Risiko: Die große Mehrheit der KI-Anwendungen — Spam-Filter, Inhaltsempfehlungen, KI-Produktivitätstools — fällt in diese Kategorie. Sie haben keine spezifischen Verpflichtungen nach dem AI Act, obwohl Unternehmen, die sie entwickeln, freiwilligen Verhaltenskodizes beitreten können.
Hochrisiko-KI-Systeme in Nicht-Technologiebranchen
Eine der häufigsten Überraschungen für Unternehmen ist die Entdeckung, dass sie Hochrisiko-KI-Systeme verwenden, ohne sie als solche identifiziert zu haben. Beispiele aus Anhang III des AI Act:
Personalwesen: Jedes KI-System, das bei der Kandidatenauswahl, der Leistungsbewertung, der Beförderungsverwaltung oder der Überwachung des Mitarbeiterverhaltens eingesetzt wird, ist nach dem AI Act hohes Risiko. Dies umfasst CV-Screening-Tools, KI-gestützte Videointerviewanalyse-Systeme und Produktivitätsanalyseplattformen.
Banken und Kredit: Kreditscoring-Systeme, Kreditwürdigkeitsbewertung und Betrugserkennungsmodelle, die bestimmen, ob eine Person Zugang zu einem Kredit hat oder zu welchen Konditionen, sind hohes Risiko.
Versicherung: KI-Systeme, die bei der Policenzeichnung, der Schadensbewertung oder der Prämienpreisgestaltung basierend auf KI-generierten Risikoprofilen eingesetzt werden, sind hohes Risiko.
Öffentliche Dienste und Verwaltung: KI-Systeme, die den Zugang von Einzelpersonen zu öffentlichen Leistungen bestimmen oder Sozialhilfeentscheidungen treffen, sind hohes Risiko.
KI-Governance: über einmalige Compliance hinaus
Der AI Act kann nicht als einmaliges Compliance-Projekt angegangen werden. Er erfordert die Einrichtung einer KI-Governance-Funktion innerhalb der Organisation, die in der Lage ist:
- Neue KI-Systeme vor dem Einsatz zu bewerten
- Eine aktuelle Bestandsaufnahme der KI-Systeme und ihrer Risikoklassifizierung zu führen
- Den Lebenszyklus von Hochrisiko-KI-Systemen zu verwalten (einschließlich wesentlicher Änderungen, die eine neue Konformitätsbewertung auslösen)
- Mitarbeiter zu schulen, die KI-Systeme nutzen oder beaufsichtigen
- Vorfälle und Kommunikation mit AESIA zu verwalten
- Die Compliance von KI-Lieferanten zu überwachen
BMC hilft Unternehmen, diese KI-Governance-Funktion verhältnismäßig zu ihrer Größe und Komplexität aufzubauen.
Die Datenschutzdimension: AI Act und DSGVO gemeinsam
Hochrisiko-KI-Systeme, die personenbezogene Daten verarbeiten, lösen gleichzeitig Verpflichtungen nach dem AI Act und der DSGVO aus. Der wichtigste Schnittpunkt ist die Datenschutz-Folgenabschätzung (DSFA), die die DSGVO bei risikoreicher Verarbeitung personenbezogener Daten verlangt.
Gemäß Leitlinien der AEPD und des Europäischen Datenschutzausschusses sollte die DSFA eines Hochrisiko-KI-Systems mit der AI-Act-Konformitätsbewertung integriert werden. Das bedeutet, dass keine zwei separaten Bewertungen durchgeführt werden sollten, sondern ein integrierter Prozess, der sowohl die Risiken für die Rechte und Freiheiten von Einzelpersonen (DSGVO) als auch die Sicherheits- und Funktionsrisiken des KI-Systems (AI Act) adressiert.
AI Act und Beschaffung: Was von KI-Lieferanten zu fordern ist
Der AI Act hat erhebliche Auswirkungen auf die Art und Weise, wie Unternehmen KI-Systeme beschaffen. Wenn ein Unternehmen ein Drittanbieter-KI-System in einem Hochrisikokontext einsetzt, wird es zum Betreiber mit eigenen Compliance-Verpflichtungen. Um diesen Verpflichtungen nachzukommen, benötigt es die Zusammenarbeit und Informationen des Anbieters.
Verträge mit KI-Lieferanten sollten nun routinemäßig Folgendes umfassen: Zugang zur technischen Dokumentation, die ausreicht, um Regulierungsverpflichtungen zu erfüllen, Benachrichtigungsrechte bei wesentlichen Systemänderungen, Informationen über Trainingsdaten und Modellbeschränkungen, Unterstützung bei Konformitätsbewertungsprozessen und vertragliche Garantien bezüglich der Compliance mit dem EU-AI-Act.
BMC berät Unternehmen zu den AI-Act-Bestimmungen, die in Lieferantenverträge aufgenommen werden müssen, und unterstützt bei der Überprüfung bestehender KI-Lieferantenvereinbarungen, um Lücken und Nachverhandlungsprioritäten zu identifizieren.
Häufig gestellte Fragen
Verwandte Leistungen
Machen Sie den ersten Schritt
Fordern Sie eine unverbindliche Beratung an und entdecken Sie, was wir für Ihr Unternehmen tun können.