Skip to main content

EU AI Act Beratung für KMU: praxisnah, technisch fundiert, termingerecht.

Was ist der EU AI Act?

Die 7 zentralen Pflichten aus dem EU AI Act

KI-Inventar & Risikoklassifizierung

Jedes Unternehmen, das KI einsetzt, muss wissen, welche Systeme im Einsatz sind , auch Shadow AI zählt dazu. Der EU AI Act verlangt eine vollständige Bestandsaufnahme aller KI-Systeme und deren Einstufung in die vier Risikoklassen (minimal, begrenzt, hoch, unannehmbar). Ohne KI-Inventar ist keine Compliance möglich.

01

KI-Kompetenzpflicht nach Art. 4

Seit Februar 2025 müssen alle Unternehmen, die KI einsetzen, die KI-Kompetenz ihres Personals sicherstellen. Das gilt unabhängig von der Unternehmensgröße und betrifft auch die Nutzung von ChatGPT, Copilot oder KI-Features in bestehender Software. Eine dokumentierte KI-Kompetenzschulung ist der obligatorische Nachweis.

02

Risikomanagement für Hochrisiko-KI

Hochrisiko-KI-Systeme, wie sie es etwa beim Einsatz in Recruiting, Kreditprüfung oder kritischer Infrastruktur sind, erfordern ein kontinuierliches Risikomanagementsystem nach Art. 9. Dazu gehören Risikoidentifikation, Bewertung, Minderungsmaßnahmen und regelmäßige Überprüfung. Das System muss dokumentiert und nachweisbar sein.

03

Technische Dokumentation & Konformität

Der AI Act verlangt eine vollständige technische Dokumentation für Hochrisiko-Systeme: Zweckbestimmung, Systemarchitektur, Trainingsdaten, Leistungsmetriken und Testverfahren. Dazu kommt die Konformitätsbewertung, die in den meisten Fällen als Selbstbewertung ausreichend ist. Die Dokumentation muss vor dem 2. August 2026 stehen.

04

Transparenzpflichten & Kennzeichnung

KI-Systeme mit begrenztem Risiko, wie Chatbots oder KI-generierte Inhalte, müssen als KI gekennzeichnet werden. Nutzer müssen wissen, dass sie mit einer KI interagieren. Für Hochrisiko-Systeme gelten zusätzliche Informationspflichten gegenüber betroffenen Personen, ähnlich den DSGVO-Betroffenenrechten. Wir prüfen, ob Ihre KI-Systeme die EU AI Act Pflichten erfüllen.

05

Menschliche Aufsicht & Governance-Strukturen

Der AI Act fordert für Hochrisiko-Systeme eine menschliche Aufsichtsfunktion (Human Oversight). Dazu gehören klare Verantwortlichkeiten, definierte Eskalationswege und ein KI-Beauftragter oder Governance-Verantwortlicher. Ohne diese Strukturen ist eine AI Act Compliance unmöglich.

06

Bußgelder bis zu 35 Mio. € oder 7 % Jahresumsatz

Die Sanktionsstruktur des EU AI Act orientiert sich bewusst an der DSGVO: Bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes bei verbotenen KI-Praktiken, bis zu 15 Mio. € oder 3 % bei Nichteinhaltung der Hochrisiko-Anforderungen. Diese Bußgelder liegen oftmals über der Schmerzgrenze großer Unternehmen. Für KMU gelten abgemilderte Obergrenzen, aber die Durchsetzung durch die Bundesnetzagentur kommt mit Sicherheit, da wir wissen, wie es um den Kassenbestand des Bundes steht.

07

Leistungsumfang der AI Act Beratung

Für wen ist die AI Act Beratung geeignet?

Ihr Ansprechpartner
Mario Elsen, Geschäftsführer, zertifizierter externer Datenschutzbeauftragter (KI, EU AI Act) und Software Entwickler

Was ist der EU AI Act?

Ist mein Unternehmen vom EU AI Act betroffen?

Was kostet eine AI Act Beratung?

Welche Fristen gelten für den EU AI Act?

Brauche ich einen KI-Beauftragten?

Welche Bußgelder drohen bei Verstößen gegen den AI Act?

Was unterscheidet Elsen GRC von anderen AI Act Beratern?

Wie läuft eine AI Act Beratung ab?

Gilt der AI Act auch für ChatGPT und Microsoft Copilot?