Risikoklassen im AI Act – Überblick und Bedeutung für Unternehmen
Ein Kernstück des AI Act ist die Einteilung von KI-Systemen nach Risikokategorien. Dieser risikobasierte Ansatz stellt sicher, dass dort, wo KI kaum Gefahren birgt, nur wenige Pflichten greifen, während in kritischen Bereichen strenge Anforderungen gelten. Für Unternehmen bedeutet das: Die richtige Einstufung ihrer KI-Systeme ist der erste Schritt zu Compliance und Rechtssicherheit.
Im Folgenden werden die vier Kategorien – minimales Risiko, begrenztes Risiko, hohes Risiko und unannehmbares Risiko – detailliert erläutert.
Minimales Risiko – unkritische KI-Systeme ohne Auflagen
Unter minimales Risiko fallen KI-Anwendungen, die keine nennenswerten Auswirkungen auf Rechte oder Sicherheit haben. Ein klassisches Beispiel ist der Spamfilter im E-Mail-Programm: Er sortiert unerwünschte Nachrichten aus, beeinflusst aber nicht die rechtliche oder wirtschaftliche Stellung des Nutzers. Auch Rechtschreibprogramme oder Musikempfehlungen auf Streaming-Plattformen gehören in diese Kategorie.
Für Unternehmen bedeutet das konkret: Diese Systeme dürfen ohne besondere Auflagen betrieben werden. Es gibt keine speziellen Dokumentationspflichten, kein Konformitätsverfahren und keine Transparenzhinweise. Dennoch ist es aus Gründen der internen Governance sinnvoll, eine Übersicht aller eingesetzten KI-Anwendungen zu führen, um jederzeit nachweisen zu können, warum bestimmte Systeme als unkritisch eingestuft wurden.
Begrenztes Risiko – Transparenzpflichten für KI-Systeme
Die zweite Kategorie betrifft Systeme mit begrenztem Risiko. Diese KI-Anwendungen bergen zwar keine gravierenden Gefahren, können Nutzer jedoch leicht täuschen oder beeinflussen. Typische Beispiele sind Chatbots, die in der Kundenkommunikation eingesetzt werden, oder generative KI-Tools wie Text- oder Bildgeneratoren.
Hier schreibt der AI Act klare Transparenzpflichten vor:
- Nutzer müssen unmissverständlich darauf hingewiesen werden, dass sie mit einer KI interagieren.
- KI-generierte Inhalte – etwa Texte, Bilder oder Videos – müssen erkennbar gemacht werden, zum Beispiel durch Wasserzeichen oder Hinweise im Interface.
Für Unternehmen heißt das: Sie müssen ihre Plattform-Policies, AGB und Benutzeroberflächen entsprechend anpassen. Wird dies versäumt, drohen nicht nur rechtliche Konsequenzen, sondern auch Vertrauensverluste bei Kunden und Geschäftspartnern.
Hohes Risiko – strenge Pflichten für sensible Anwendungen
Besonders stark reguliert sind KI-Systeme mit hohem Risiko. Sie greifen direkt in zentrale Lebensbereiche ein und können erhebliche Auswirkungen auf die Rechte von Bürgerinnen und Bürgern haben. Beispiele sind:
- Kredit-Scoring-Systeme, die über die Bonität einer Person entscheiden,
- KI-gestützte Bewerberauswahlverfahren, die über den Zugang zum Arbeitsmarkt bestimmen, oder
- biometrische Identitätsprüfungen, etwa durch Gesichtserkennung.
Für solche Systeme schreibt der AI Act umfangreiche Pflichten vor. Dazu gehören:
- ein Risikomanagementsystem,
- detaillierte technische Dokumentationen,
- verpflichtende menschliche Aufsicht (Human Oversight),
- sowie regelmäßige Überprüfungen und Audits.
Für Unternehmen bedeutet das: Der Einsatz von Hochrisiko-KI ist nur mit erheblichen Compliance-Strukturen möglich. Wer in diesen Bereichen tätig ist, muss frühzeitig Ressourcen bereitstellen, um die Anforderungen des AI Act zu erfüllen.
Unannehmbares Risiko – verbotene KI-Systeme
Die letzte und schärfste Kategorie betrifft Anwendungen mit unannehmbarem Risiko. Diese Systeme gelten als unvereinbar mit den Grundwerten der Europäischen Union und sind daher grundsätzlich verboten.
Zu den verbotenen KI-Anwendungen gehören beispielsweise:
- Social-Scoring-Systeme, die Menschen anhand ihres Verhaltens oder Profils bewerten,
- Echtzeit-Gesichtserkennung im öffentlichen Raum zur Massenüberwachung,
- sowie manipulative Systeme, die gezielt Verhalten oder Emotionen steuern.
Für Unternehmen gilt hier eine klare Pflicht: Der Einsatz solcher Systeme ist untersagt. Wer dennoch verbotene Anwendungen einführt, riskiert nicht nur hohe Bußgelder, sondern auch erhebliche Reputationsschäden.
Fazit zu den Risikoklassen des AI Act
Die Einordnung von KI-Systemen in eine der vier Risikokategorien ist der erste und entscheidende Schritt zur Compliance. Nur wenn Unternehmen wissen, ob sie mit einem minimalen, begrenzten, hohen oder unannehmbaren Risiko arbeiten, können sie die passenden Maßnahmen ergreifen.
Gerade für Hochrisiko-Anwendungen empfiehlt es sich, schon jetzt interne Prozesse aufzubauen und Verantwortlichkeiten festzulegen. So können Unternehmen sicherstellen, dass sie den Anforderungen des AI Act rechtzeitig gerecht werden – und gleichzeitig das Vertrauen ihrer Kunden, Mitarbeiter und Aufsichtsbehörden stärken.
Betroffene Unternehmen und ihre Pflichten nach dem AI Act
Die europäischen Vorgaben zum AI Act betreffen nicht nur Entwickler von KI-Systemen, sondern eine ganze Reihe von Akteuren entlang der Wertschöpfungskette. Entscheidend ist die Rolle, die ein Unternehmen einnimmt – Hersteller, Anbieter, Nutzer, Händler oder Importeur. Davon hängen die konkreten rechtlichen Pflichten ab.
Hersteller und Anbieter von KI-Systemen
Hersteller und Anbieter sind die zentralen Adressaten des AI Act. Sie entwickeln KI-Systeme oder bringen sie unter eigenem Namen in Verkehr. Ihre Pflichten sind besonders umfassend:
- Sie müssen ein funktionierendes Risikomanagementsystem implementieren, das Gefahren frühzeitig erkennt.
- Für Hochrisiko-KI-Systeme sind technische Dokumentationen vorzulegen, die Datenquellen, Trainingsmethoden und Sicherheitsmaßnahmen belegen.
- Anbieter tragen die Verantwortung für die Konformitätsbewertung und müssen nachweisen, dass ihr System die Anforderungen erfüllt.
- Sie müssen das KI-System in die EU-Datenbank für Hochrisiko-KI eintragen und eine CE-Kennzeichnungsicherstellen.
Damit wird deutlich: Hersteller und Anbieter haben die Hauptverantwortung für Compliance. Ohne ihre aktive Mitwirkung darf ein KI-System in Europa nicht rechtmäßig eingesetzt werden.
Nutzer (Betreiber) von KI im Unternehmen
Neben den Entwicklern sind auch die Nutzer, also die Betreiber von KI-Systemen, vom AI Act erfasst. Darunter fallen Unternehmen, die KI-Lösungen in ihrer Organisation einsetzen, beispielsweise für Recruiting-Prozesse, Bonitätsprüfungen oder automatisierte Kundenkommunikation.
Ihre Pflichten sind weniger technisch, dafür aber organisatorisch bedeutsam:
- Nutzer müssen sicherstellen, dass eine menschliche Aufsicht (Human Oversight) während des Einsatzes gewährleistet ist.
- Sie sind verpflichtet, die Gebrauchsanweisungen und Zweckbindungen des Systems einzuhalten.
- Bei Hochrisiko-Systemen müssen sie die laufende Überwachung und Dokumentation übernehmen.
- Stellt ein Unternehmen fest, dass ein System nicht den Anforderungen entspricht, muss es Korrekturmaßnahmen ergreifen oder den Einsatz einstellen.
Kurz gesagt: Auch Nutzer dürfen KI nicht einfach „blind“ einsetzen. Sie müssen aktiv Verantwortung übernehmen und sicherstellen, dass die Systeme rechtmäßig und sicher betrieben werden.
Händler im KI-Markt
Eine weitere Gruppe, die der AI Act in die Pflicht nimmt, sind Händler von KI-Systemen. Sie stehen zwischen Herstellern und Endkunden und müssen sicherstellen, dass die Produkte, die sie vertreiben:
- mit der CE-Kennzeichnung versehen sind,
- über die erforderlichen Dokumente und Konformitätserklärungen verfügen und
- keine verbotenen KI-Praktiken enthalten.
Für Händler bedeutet das: Auch wenn sie die Systeme nicht selbst entwickeln oder betreiben, sind sie rechtlich verpflichtet, grundlegende Prüfungen vorzunehmen.
Importeure von KI-Systemen
Besonders sensibel ist die Rolle der Importeure. Sie bringen KI-Systeme aus Drittstaaten in die EU. Damit fungieren sie gewissermaßen als „Torwächter“. Ihre Pflichten umfassen:
- Überprüfung, ob das KI-System den EU-Standards entspricht,
- Sicherstellung, dass eine technische Dokumentation vorliegt, und
- Meldung an die zuständigen Marktaufsichtsbehörden, falls Unregelmäßigkeiten festgestellt werden.
Importeure sind also verpflichtet, besonders genau hinzusehen. Sie können nicht davon ausgehen, dass Systeme aus dem Ausland automatisch konform sind.
Technische und organisatorische Pflichten für Hochrisiko-KI-Systeme
Die strengsten Anforderungen des AI Act betreffen Anwendungen der Kategorie hohes Risiko. Solche Systeme dürfen nur dann auf den Markt gebracht oder eingesetzt werden, wenn sie eine Reihe von technischen und organisatorischen Auflagen erfüllen. Ziel ist es, Verlässlichkeit, Transparenz und Sicherheit zu garantieren. Unternehmen müssen sich daher frühzeitig mit den folgenden Kernpflichten auseinandersetzen.
Datenqualität als Fundament der KI-Compliance
Ein zentraler Baustein des AI Act ist die Qualität der Daten, mit denen ein Hochrisiko-KI-System trainiert und validiert wird.
- Relevanz und Repräsentativität: Die verwendeten Daten müssen die Realität angemessen abbilden. Verzerrungen dürfen nicht entstehen, weil bestimmte Gruppen unterrepräsentiert sind.
- Fehlerfreiheit und Vollständigkeit: Unvollständige oder fehlerhafte Daten erhöhen das Risiko von Fehlentscheidungen. Deshalb sind regelmäßige Datenprüfungen vorgeschrieben.
- Bias-Prävention: Unternehmen müssen aktiv sicherstellen, dass keine systematischen Benachteiligungen (Bias) entstehen. Insbesondere bei Bewerbungs- oder Kredit-Scoring-Systemen ist dies entscheidend, um Diskriminierung zu verhindern.
Damit wird klar: Datenqualität ist kein technisches Detail, sondern ein rechtlicher Pflichtbestandteil. Wer hier nachlässig arbeitet, riskiert sowohl Bußgelder als auch massive Reputationsverluste.
Logging und Protokollierung für Nachvollziehbarkeit
Ein weiteres Kernstück der Pflichten ist die Protokollierung (Logging). Hochrisiko-KI-Systeme müssen in der Lage sein, alle wesentlichen Vorgänge und Ergebnisse automatisch zu erfassen.
Das bedeutet:
- Jede Entscheidung der KI muss im Nachhinein rekonstruiert werden können.
- Logs müssen gespeichert und vor Manipulation geschützt werden.
- Behörden und interne Prüfer sollen in der Lage sein, jederzeit nachzuvollziehen, wie ein bestimmtes Ergebnis zustande gekommen ist.
Die Logging-Pflicht sorgt damit für eine lückenlose Rückverfolgbarkeit – und sie hilft Unternehmen selbst, Fehlerquellen schneller zu identifizieren und zu beheben.
Transparenzpflichten gegenüber Nutzern
Transparenz ist ein Schlüsselprinzip des AI Act. Anbieter von Hochrisiko-KI-Systemen müssen klare und verständliche Informationen bereitstellen.
Dazu gehören:
- Gebrauchsanweisungen: Dokumente, die Zweck, Funktionen, Grenzen und Risiken des Systems eindeutig beschreiben.
- Hinweise für Nutzer: Endanwender müssen wissen, wenn sie mit einer KI interagieren oder wenn Ergebnisse fehleranfällig sein können.
- Kennzeichnung von KI-generierten Inhalten: Texte, Bilder oder Videos, die ein System erstellt hat, müssen erkennbar markiert werden.
Für Unternehmen bedeutet das: Transparenz ist nicht optional, sondern eine rechtlich bindende Pflicht, die bereits bei der Produktgestaltung mitgedacht werden muss.
Menschliche Aufsicht – Human Oversight als Pflicht
Der AI Act stellt klar: Hochrisiko-KI darf nie völlig autonom agieren. Systeme müssen so konstruiert sein, dass Menschen die Kontrolle behalten.
Konkret heißt das:
- Es muss einen Notfall-Mechanismus geben, mit dem das System sofort deaktiviert werden kann („rote Taste“).
- Geschulte Mitarbeiter müssen jederzeit in der Lage sein, Ergebnisse zu prüfen und zu korrigieren.
- Prozesse müssen so gestaltet sein, dass ein Automation Bias – also das blinde Vertrauen in KI-Ergebnisse – vermieden wird.
Human Oversight ist somit mehr als eine Formalie. Es geht darum, KI so einzusetzen, dass die letzte Entscheidungskompetenz beim Menschen liegt.
Genauigkeit, Robustheit und Cybersicherheit
Neben den organisatorischen Pflichten verlangt der AI Act auch, dass Hochrisiko-KI-Systeme jederzeit verlässlich und sicher arbeiten.
- Genauigkeit: Ergebnisse müssen stabil und überprüfbar korrekt sein.
- Robustheit: Systeme dürfen nicht bei kleinen Änderungen der Eingabedaten zusammenbrechen oder unvorhersehbare Ausgaben liefern.
- Cybersicherheit: KI muss gegen Angriffe geschützt werden, etwa gegen Datenmanipulation oder unbefugten Zugriff.
Damit macht der AI Act deutlich: Wer Hochrisiko-KI einsetzt, muss nicht nur juristische, sondern auch technische Sicherheitsstandards erfüllen.
Fazit zu den Pflichten für Hochrisiko-KI
Die Anforderungen an Hochrisiko-KI sind umfangreich – und sie greifen bereits vor der Markteinführung. Unternehmen müssen Datenqualität sicherstellen, Protokollierung implementieren, Transparenz gewährleisten, menschliche Aufsicht etablieren und robuste Sicherheitsmechanismen integrieren.
Diese Pflichten sind nicht nur bürokratische Hürden, sondern dienen der Vermeidung realer Risiken: Diskriminierung, Fehlentscheidungen und Vertrauensverlust. Wer diese Anforderungen ernst nimmt, schafft die Grundlage für rechtssichere und vertrauenswürdige KI-Anwendungen.
Konformität und CE-Kennzeichnung im AI Act
Der Einsatz von Hochrisiko-KI-Systemen ist in der Europäischen Union nur erlaubt, wenn vorab ein klar geregeltes Konformitätsverfahren durchlaufen wurde. Dieses Verfahren stellt sicher, dass die Systeme nicht nur technisch ausgereift, sondern auch rechtlich abgesichert sind. Unternehmen müssen deshalb verstehen, welche Schritte verpflichtend sind – von der Konformitätsbewertung über die technische Dokumentation bis hin zur CE-Kennzeichnung und laufenden Überwachung.
Konformitätsbewertung – der erste Schritt zur Zulassung
Bevor ein KI-System mit hohem Risiko in Verkehr gebracht werden darf, muss es eine Konformitätsbewertungdurchlaufen. Dieses Verfahren prüft, ob alle gesetzlichen Anforderungen des AI Act eingehalten wurden.
- In vielen Fällen darf die Bewertung intern durch den Anbieter erfolgen.
- Bei besonders kritischen Anwendungen ist jedoch eine notifizierte Stelle (z. B. TÜV) einzubeziehen.
- Das Verfahren umfasst die Überprüfung des Risikomanagements, der Datenqualität, der Transparenzpflichtenund der Human Oversight.
Damit ist klar: Ohne erfolgreiche Konformitätsbewertung ist der Einsatz von Hochrisiko-KI in der EU unzulässig.
Technische Dokumentation – Nachweis und Grundlage für Audits
Eng verbunden mit der Konformitätsbewertung ist die Pflicht zur technischen Dokumentation. Anbieter müssen ein umfassendes Dossier erstellen, das den gesamten Lebenszyklus des KI-Systems beschreibt.
Dazu gehören:
- die Beschreibung des Zwecks und der Funktionen,
- die verwendeten Datenquellen und Trainingsmethoden,
- die Risikobewertungen und Testergebnisse,
- sowie Angaben zu Sicherheits- und Kontrollmechanismen.
Die Dokumentation ist nicht nur Pflicht gegenüber den Behörden, sondern auch ein Instrument, um im Falle von Audits oder Rechtsstreitigkeiten die eigene Sorgfalt nachzuweisen.
EU-Konformitätserklärung und CE-Kennzeichnung
Nach erfolgreicher Prüfung muss der Anbieter eine EU-Konformitätserklärung ausstellen. Mit dieser erklärt er verbindlich, dass das KI-System alle Anforderungen des AI Act erfüllt.
Im Anschluss erhält das System die CE-Kennzeichnung, die weithin sichtbar am Produkt oder in der Software angebracht werden muss. Dieses Kennzeichen signalisiert: Das System ist geprüft, konform und darf in der EU eingesetzt werden.
Für Unternehmen bedeutet das: Die CE-Kennzeichnung ist nicht nur ein Symbol, sondern eine rechtliche Voraussetzung für den Marktzugang.
Registrierung in der EU-Datenbank
Zusätzlich schreibt der AI Act vor, dass jedes Hochrisiko-KI-System in einer zentralen europäischen Datenbankregistriert werden muss.
- Dort werden die wichtigsten Angaben zum System gespeichert.
- Behörden und Öffentlichkeit können nachvollziehen, welche Systeme im Einsatz sind.
- Die Registrierung schafft Transparenz und Vertrauen in den Markt.
Damit entsteht ein europaweit einheitliches Verzeichnis, das für Unternehmen, Investoren und Verbraucher gleichermaßen Orientierung bietet.
Post-Market-Monitoring und Incident-Reporting
Die Verantwortung endet nicht mit der CE-Kennzeichnung. Anbieter von Hochrisiko-KI sind verpflichtet, ein Post-Market-Monitoring einzurichten.
- Sie müssen die Leistung des Systems kontinuierlich überwachen.
- Vorfälle oder Fehlfunktionen sind unverzüglich an die zuständigen Behörden zu melden.
- Wenn Risiken auftreten, müssen Korrekturmaßnahmen ergriffen werden.
Das Monitoring stellt sicher, dass Hochrisiko-KI-Systeme auch nach der Markteinführung rechtskonform, sicher und zuverlässig bleiben.
Fazit zur Konformität und CE-Kennzeichnung
Die Pflichten rund um Konformität und CE-Kennzeichnung sind für Unternehmen zentral. Sie bilden die Grundlage für den rechtmäßigen Marktzugang von Hochrisiko-KI-Systemen. Ohne Bewertung, Dokumentation, CE-Zeichen, Registrierung und Monitoring ist der Einsatz unzulässig.
Unternehmen sollten deshalb schon in der Entwicklungsphase sicherstellen, dass alle notwendigen Prozesse vorhanden sind. So wird nicht nur Rechtskonformität erreicht, sondern auch das Vertrauen von Kunden und Geschäftspartnerngestärkt.
Roadmap zur Umsetzung des AI Act im Unternehmen
Die Anforderungen des AI Act wirken auf den ersten Blick komplex. Doch mit einem strukturierten Fahrplan lassen sie sich systematisch angehen. Eine Roadmap in drei Etappen – 30, 90 und 180 Tage – hilft Unternehmen, schrittweise in Richtung AI-Compliance zu gehen und rechtzeitig alle Vorgaben zu erfüllen.
Erste 30 Tage – Gap-Analyse und Bestandsaufnahme
Der wichtigste Schritt zu Beginn ist die Erfassung aller eingesetzten KI-Systeme im Unternehmen. Viele Organisationen wissen noch gar nicht genau, wo überall KI-Lösungen integriert sind – sei es in der IT-Sicherheit, im Kundenservice oder in Finanzprozessen.
- Gap-Analyse: Unternehmen sollten prüfen, welche bestehenden Strukturen bereits vorhanden sind und wo Lücken bestehen.
- Bestandsaufnahme: Alle eingesetzten KI-Systeme müssen dokumentiert und vorläufig einer Risikokategorie (minimales, begrenztes, hohes oder unannehmbares Risiko) zugeordnet werden.
- Management-Buy-in: Führungskräfte sollten in diesen Prozess eingebunden werden, um Ressourcen und Verantwortlichkeiten abzusichern.
Damit wird die Grundlage gelegt: Nach 30 Tagen sollte ein Unternehmen wissen, welche KI-Systeme vorhanden sindund in welchen Bereichen Handlungsbedarf besteht.
Bis 90 Tage – Dateninventur, Risikoklassifizierung und Policies
In der zweiten Phase geht es darum, die Vorarbeit zu vertiefen und erste Strukturen für Compliance zu schaffen.
- Dateninventur: Unternehmen müssen genau dokumentieren, welche Daten für Training, Test und Betrieb der KI-Systeme verwendet werden. Dabei sind Qualität, Repräsentativität und mögliche Bias-Risiken zu prüfen.
- Risikoklassifizierung: Jedes KI-System wird nun offiziell einer der vier Risikokategorien des AI Act zugeordnet. Diese Klassifizierung ist entscheidend, da sie bestimmt, welche Pflichten im Detail greifen.
- Policies: Erste interne Richtlinien zur Nutzung von KI sollten erstellt werden. Dazu gehören Regeln für Transparenzpflichten, Datenqualität und interne Freigabeprozesse.
Nach 90 Tagen sollte jedes Unternehmen über ein KI-Inventar, eine dokumentierte Risikoklassifizierung und grundlegende Policies verfügen.
Bis 180 Tage – DPIA, Governance und Audits
Die dritte Phase markiert den Übergang zu einer umfassenden AI-Governance-Struktur.
- Datenschutz-Folgenabschätzungen (DPIA): Für Hochrisiko-KI-Systeme, die personenbezogene Daten verarbeiten, sind Folgenabschätzungen nach DSGVO vorgeschrieben. Diese dokumentieren Risiken für Grundrechte und legen geeignete Schutzmaßnahmen fest.
- Governance-Strukturen: Unternehmen sollten ein KI-Compliance-Gremium oder die Rolle eines KI-Beauftragten einführen. Diese Instanz überwacht Risiken, koordiniert Maßnahmen und dient als Schnittstelle zu Behörden.
- Audits und Testläufe: Erste interne Prüfungen der KI-Systeme stellen sicher, dass Prozesse funktionieren und dokumentiert sind. Auch Notfallübungen (z. B. bei fehlerhaften Ergebnissen) sind sinnvoll.
- Mitarbeiterschulungen: Teams müssen über Pflichten und Risiken informiert werden, um KI-Systeme verantwortungsvoll einsetzen zu können.
Nach 180 Tagen sollte ein Unternehmen in der Lage sein, Audits zu bestehen, Behörden Auskunft zu geben und Risiken aktiv zu managen.
Fazit: AI Act Umsetzung mit klarer Roadmap
Der AI Act verlangt von Unternehmen eine vorausschauende Planung. Mit einem strukturierten Fahrplan – 30 Tage für die Bestandsaufnahme, 90 Tage für Klassifizierung und Policies, 180 Tage für Governance und Audits – lassen sich die Anforderungen schrittweise und pragmatisch erfüllen.
Wer frühzeitig startet, reduziert nicht nur rechtliche Risiken und Bußgelder, sondern stärkt auch das Vertrauen von Kunden, Mitarbeitern und Investoren. Am Ende steht ein klarer Vorteil: rechtssichere, transparente und vertrauenswürdige KI-Systeme, die langfristig Wettbewerbsvorteile sichern.