<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Governance Archive - ELSEN GRC</title>
	<atom:link href="https://elsengrc.com/tag/governance/feed/" rel="self" type="application/rss+xml" />
	<link>https://elsengrc.com/tag/governance/</link>
	<description>Governance, Risk, Compliance Beratung - AI Privacy &#38; SaaS</description>
	<lastBuildDate>Sat, 17 Jan 2026 18:21:02 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://elsengrc.com/docs/uploads/2025/10/cropped-512-32x32.png</url>
	<title>Governance Archive - ELSEN GRC</title>
	<link>https://elsengrc.com/tag/governance/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>KI Governance: Erklärung, Aufgaben und Prinzipien</title>
		<link>https://elsengrc.com/wiki/g/ki-governance/</link>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Fri, 16 Jan 2026 18:25:02 +0000</pubDate>
				<category><![CDATA[Governance]]></category>
		<category><![CDATA[Wiki]]></category>
		<category><![CDATA[KI Governance]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1141</guid>

					<description><![CDATA[<p>KI Governance ist ein zentraler Bestandteil moderner Governance-, Risk- und Compliance-Strukturen (GRC) und bezeichnet den organisatorischen, rechtlichen und technischen Ordnungsrahmen (oder die &#8222;Leitplanken&#8220;), mit dem Unternehmen und Organisationen den Einsatz...</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/g/ki-governance/">KI Governance: Erklärung, Aufgaben und Prinzipien</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>KI Governance</strong> ist ein zentraler Bestandteil moderner Governance-, Risk- und Compliance-Strukturen (GRC) und bezeichnet den organisatorischen, rechtlichen und technischen <strong>Ordnungsrahmen</strong> (oder die &#8222;Leitplanken&#8220;), mit dem Unternehmen und Organisationen den <strong>Einsatz von Künstlicher Intelligenz steuern, überwachen und verantworten</strong>. Ziel ist es, KI-Systeme sicher, rechtskonform, transparent und im Einklang mit unternehmerischen sowie regulatorischen Anforderungen einzusetzen, wie beispielsweise dem <a href="https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/">EU AI Act</a>, <a href="https://elsengrc.com/wiki/c/nis-2-richtlinie/">NIS-2</a> oder anderen Regel- und Rahmenwerken, die für eine Unternehmensführung im Kontext des KI-Einsatzes zu berücksichtigen sind. Allerdings ist der Begriff der KI Governance nicht einheitlich definiert &#8211; aus diesem Grund liefern wir mit diesem GRC-Wiki Beitrag eine allgemeingültig Definition des Begriffes und stellen die wichtigsten Aufgaben von &#8222;KIG&#8220; vor.</p>
<h2>Die wichtigsten Aufgaben von KI Governance</h2>
<p><strong>KI Governance definiert im Allgemeinen</strong>, wie Künstliche Intelligenz (KI) im Unternehmen eingeführt, genutzt, überwacht und weiterentwickelt wird. Sie legt nicht nur fest, welche KI-Systeme (z.B. Google Gemini, ChatGPT, Copilot oder ähnliche LLMs) eingesetzt werden dürfen, auf welchen Daten sie basieren bzw. zugreifen dürfen, wer Entscheidungen freigibt (Stichwort: &#8222;Human in the Loop&#8220;) und wie <a href="https://elsengrc.com/ki-risiko-check/">Risiken durch den KI-Einsatz</a> bewertet und kontrolliert werden.</p>
<p>Zu den <strong>zentralen und wichtigsten Aufgaben der KI Governance</strong> gehören beispielsweise</p>
<ul>
<li>die <strong>Entwicklung verbindlicher KI-Richtlinien</strong>,</li>
<li>die klare <strong>Zuordnung von Rollen und Verantwortlichkeiten</strong>,</li>
<li>die <strong>Dokumentation</strong> von Modellen und Einsatzkontexten sowie</li>
<li>die <strong>Bewertung</strong> rechtlicher, ethischer und technischer Risiken.</li>
</ul>
<p>Darüber hinaus umfasst KI Governance auch die kontinuierliche<strong> Überwachung bestehender KI-Anwendungen und KI-Integrationen in Prozesse und Produkte eines Unternehmens</strong> und deren Anpassung an neue regulatorische oder organisatorische Anforderungen. Damit ist KIG nicht nur eine Aufgabe der Geschäftsführung oder Unternehmensleitung, sondern auch in Fachabteilungen ein wichtiger und elementarer Teil der Prozesskette.</p>
<h2>Kernprinzipien der KI Governance</h2>
<p>KI Governance folgt klaren <strong>Steuerungsprinzipien</strong>, die den verantwortungsvollen Einsatz von KI im Unternehmen sicherstellen. Zentrales Element ist die <strong>Verantwortlichkeit</strong>: Zuständigkeiten, Entscheidungswege und Kontrollmechanismen müssen eindeutig definiert sein &#8211; das ist, wie oben beschrieben, Aufgabe einer klaren <strong>KI Governance Richtlinie</strong>. Darauf aufbauend sorgt <strong>Transparenz</strong> (z.B. durch Informations- und Dokumentationsprozesse) dafür, dass der Einsatz, die Funktionsweise und der Zweck von (implementierten) KI-Systemen nachvollziehbar dokumentiert sind.</p>
<p>Ein weiteres Grundprinzip ist der <strong>risikobasierte Ansatz</strong>, bei dem KI-Anwendungen abhängig von ihrem Einsatzkontext und ihrer potenziellen Wirkung unterschiedlich bewertet und gesteuert werden. Eine gute Orientierung bietet hier bereits das <a href="https://elsengrc.com/wiki/g/4-risikostufen-eu-ai-act-definition-und-bedeutung/">4-Stufen Risiko-Modell</a> zur Risikobewertung nach EU AI Act. Ergänzend dazu stellt <strong>Compliance-by-Design</strong> sicher, dass <strong>rechtliche und regulatorische Anforderungen</strong> bereits <strong>bei Einführung und Nutzung von KI berücksichtigt</strong> werden. Diese Prinzipien werden nicht statisch verstanden, sondern im Rahmen einer kontinuierlichen Überprüfung regelmäßig angepasst und weiterentwickelt.</p>
<h2>Einordnung im Kontext von Governance, Risk und Compliance</h2>
<p>In der <strong>GRC-Beratung</strong> ist KI Governance ein <strong>zentrales Bindeglied</strong> zwischen Governance, Risk und Compliance. Sie <strong>übersetzt regulatorische Anforderungen</strong> und interne Leitlinien <strong>in konkrete Steuerungs- und Kontrollmechanismen</strong> für KI-Systeme.</p>
<ul>
<li>Aus <strong>Governance-Sicht</strong> geht es um strategische Steuerung, Entscheidungsprozesse und unternehmensweite Leitlinien für den KI-Einsatz.</li>
<li>Aus <strong>Risk-Sicht</strong> stehen Risiken wie Fehlentscheidungen, Bias, Haftungsfragen, Reputationsschäden oder die Verhinderung von <a href="https://elsengrc.com/wiki/shadow-ai/">Shadow AI</a> im Fokus.</li>
<li>Aus <strong>Compliance-Sicht</strong> stellt KI Governance sicher, dass gesetzliche Vorgaben, insbesondere <a href="https://elsengrc.com/wiki/c/dsgvo/">DSGVO</a>, <a href="https://elsengrc.com/journal/entscheidungshilfe-fuer-wen-gilt-der-eu-ai-act/">EU AI Act</a> und angrenzende IT- und Sicherheitsanforderungen, systematisch eingehalten und nachweisbar umgesetzt werden.</li>
</ul>
<p>KI Governance macht KI damit zu einem steuerbaren und <strong>prüfbaren Bestandteil</strong> der unternehmerischen Gesamtsteuerung, die sich nicht nur auf das Level der Geschäftsführung beschränkt!</p>
<h2>Praxisrelevanz für Unternehmen</h2>
<p>KI wird zunehmend in produktiven Prozessen eingesetzt, etwa bei Entscheidungsunterstützung, Automatisierung oder generativer KI. Ohne klare KI Governance entstehen schnell unkontrollierte Nutzungen, Datenschutzrisiken und regulatorische Lücken. Unternehmen benötigen daher <strong>verbindliche Regeln für den KI-Einsatz</strong>, klare Freigabeprozesse, Transparenz über genutzte Tools und Modelle sowie eine laufende <strong>Risikoüberwachung </strong>wie unseren <a href="https://elsengrc.com/ki-risiko-check/">KI Risiko Check</a><strong>.</strong></p>
<h2>KI Governance Beratung durch Elsen GRC</h2>
<p>Elsen GRC unterstützt Unternehmen beim Aufbau und der Weiterentwicklung einer praxistauglichen KI Governance. Zu unserer Beratungsleistung gehören die Analyse bestehender KI-Nutzungen, die Entwicklung klarer KI-Richtlinien und Rollenmodelle, die Bewertung von Risiken und Compliance-Anforderungen sowie die Integration von KI Governance in bestehende GRC-Strukturen. <strong>Ziel ist es, KI rechtssicher, nachvollziehbar und wirtschaftlich sinnvoll einzusetzen und gleichzeitig Risiken wie Shadow AI oder regulatorische Verstöße zu vermeiden.</strong> Klingt passend? Dann vereinbaren Sie gerne eine unverbindliche <a href="https://elsengrc.com/contact/">KI Governance Erstberatung</a>.</p>
<hr />
<p>Bild: © Meritt Thomas &#8211; Unsplash.com</p>
<p>Quellen und Verweise:</p>
<ul>
<li>Europäische Kommission: <a href="https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai">EU AI Act</a></li>
<li>OECD: <a href="https://www.oecd.org/en/topics/policy-issues/artificial-intelligence.html">AI Governance and Risk Management</a></li>
<li>ENISA: <a href="https://www.enisa.europa.eu/publications/building-effective-governance-frameworks-for-the-implementation-of-national-cybersecurity-strategies">Cybersecurity and Governance Frameworks</a></li>
</ul>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/g/ki-governance/">KI Governance: Erklärung, Aufgaben und Prinzipien</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Shadow AI (Schatten-KI erklärt) &#8211; Definition und Erklärung</title>
		<link>https://elsengrc.com/wiki/shadow-ai/</link>
					<comments>https://elsengrc.com/wiki/shadow-ai/#comments</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Tue, 09 Dec 2025 15:49:22 +0000</pubDate>
				<category><![CDATA[Risk]]></category>
		<category><![CDATA[Wiki]]></category>
		<category><![CDATA[Compliance]]></category>
		<category><![CDATA[Governance]]></category>
		<category><![CDATA[KI-Risiken]]></category>
		<category><![CDATA[Shadow AI]]></category>
		<category><![CDATA[unerlaubte KI-Nutzung]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1099</guid>

					<description><![CDATA[<p>&#8222;Shadow AI&#8220; bezeichnet den Einsatz von KI-Systemen, Tools oder Modellen innerhalb einer Organisation ohne offizielle Freigabe, Kontrolle oder Wissen der IT-, Sicherheits- oder Compliance-Verantwortlichen oder der Geschäftsführung. Der Begriff lehnt...</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/shadow-ai/">Shadow AI (Schatten-KI erklärt) &#8211; Definition und Erklärung</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>&#8222;Shadow AI&#8220; </strong>bezeichnet den Einsatz von KI-Systemen, Tools oder Modellen innerhalb einer Organisation ohne offizielle Freigabe, Kontrolle oder Wissen der IT-, Sicherheits- oder Compliance-Verantwortlichen oder der Geschäftsführung. Der Begriff lehnt sich an &#8222;Shadow IT&#8220; an und beschreibt unautorisierte oder intransparente KI-Nutzung durch Mitarbeitende oder Fachabteilungen, während <strong>&#8222;Shadow IT&#8220;</strong> die Nutzung intransparenter IT-Services oder Komponenten innerhalb bestehender Infrastrukturen oder Produkte beschreibt. Aber was ist Shadow AI und wie entsteht Sie?</p>
<h3>Wie entsteht Shadow AI?</h3>
<p>Shadow AI entsteht, wenn Mitarbeitende einer Organisation externe KI-Dienste, Chatbots oder generative KI-Tools für die Erledigung von Aufgaben verwenden, ohne dass es dafür eine offizielle Genehmigung oder Policy innerhalb der Organisation gibt. Häufig erfolgt die Nutzung von Shadow AI aus aus Effizienzgründen, jedoch ohne Einhaltung interner Sicherheits- oder Datenschutzvorgaben. Dies kann zum Abfluss sensibler Daten, Kontrollverlust über Geschäftsprozesse und ungewollten Compliance-Risiken führen. Ein klassisches <strong>Beispiel ist die Nutzung privater Accounts von ChatGPT am Arbeitsplatz</strong>.</p>
<h3>Zentrale Risiken von Shadow AI</h3>
<p>Neben der unkontrollierten Datenabfluss oder unklarer interner Rahmenbedingungen für die Nutzung von KI bringt Shadow AI eine weitere Reihe an zentralen Risiken mit sich:</p>
<ul>
<li><strong>Datenschutz- und DSGVO-Verstöße:</strong> unbeabsichtigtes Hochladen personenbezogener oder vertraulicher Daten in Daten-verarbeitende Systeme außerhalb der Organisation</li>
<li><strong>Fehlende Transparenz</strong>: keine Nachvollziehbarkeit, welche Daten wohin übermittelt wurden</li>
<li><strong>Fehlender rechtlicher Rahmen:</strong> keine klaren rechtlichen Rahmbedingungen, wie z.B. das Vorhandensein konkret Auftragsverarbeitungsverträge (AVV-Verträge)</li>
<li><strong>Sicherheitsrisiken</strong>: Nutzung unsicherer oder manipulierbarer KI-Dienste</li>
<li><strong>Fehlende Governance</strong>: Modelle werden genutzt, ohne dass Richtlinien, Schulungen oder Kontrollprozesse existieren</li>
</ul>
<p>Damit kann die unkontrollierte Entstehung von Schatten KI durchaus als elementarer Risikofaktor in einer AI-getriebenen Welt darstellen, der für Unternehmen ohne die richtigen, klar und verständlich formulierten KI-Leitlinien nur schwer in den Griff zu bekommen ist. Umso wichtiger ist es, dass sich Unternehmen, Behörden und sonstige Organisationen frühzeitig gegen das Entstehen von Schatten KI wappnen: Durch einen transparenten und offenen Umgang mit KI.</p>
<h3>Praxisrelevanz</h3>
<p>Shadow AI betrifft nahezu alle Organisationen, die KI im Alltag einsetzen. Unternehmen und Behörden benötigen klare KI-Richtlinien, technische Kontrollen, Schulungen und Transparenzmechanismen, um eine sichere und regelkonforme Nutzung zu gewährleisten.</p>
<h3>Beratung zu Shadow AI in Behörden und Unternehmen durch Elsen GRC</h3>
<p>Elsen GRC hilft Unternehmen und Behörden dabei, Risiken unkontrollierter KI-Nutzung zu identifizieren, Richtlinien für sicheren KI-Einsatz einzuführen, Datenschutzanforderungen umzusetzen und Governance-Strukturen aufzubauen, die eine kontrollierte, transparente und verantwortungsvolle Verwendung von KI-Tools ermöglichen. <a href="https://elsengrc.com/contact/">Vereinbaren Sie ein unverbindliches Beratungsgespräch</a>.</p>
<hr />
<p>Bild: © David Werbrouck &#8211; Unsplash.com</p>
<p>Quellen: <a href="https://www.ibm.com/think/topics/shadow-ai">IBM &#8211; Shadow AI</a></p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/shadow-ai/">Shadow AI (Schatten-KI erklärt) &#8211; Definition und Erklärung</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/wiki/shadow-ai/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>NIS-2 Richtlinie &#8211; Definition, Bedeutung &#038; Pflichten</title>
		<link>https://elsengrc.com/wiki/c/nis-2-richtlinie/</link>
					<comments>https://elsengrc.com/wiki/c/nis-2-richtlinie/#comments</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Sat, 08 Nov 2025 23:51:52 +0000</pubDate>
				<category><![CDATA[Compliance]]></category>
		<category><![CDATA[Wiki]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[Governance]]></category>
		<category><![CDATA[NIS2]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=901</guid>

					<description><![CDATA[<p>Die NIS-2 Richtlinie (Richtlinie (EU) 2022/2555) (oder ausgeschrieben: die Network and Information Systems Directive 2) ist das neue zentrale europäische Flaggschiff-Regelwerk zur Stärkung der Cybersicherheit innerhalb der Europäischen Union. Sie löst...</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/c/nis-2-richtlinie/">NIS-2 Richtlinie &#8211; Definition, Bedeutung &#038; Pflichten</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Die <strong>NIS-2 Richtlinie</strong> (<a href="https://eur-lex.europa.eu/eli/dir/2022/2555/oj">Richtlinie (EU) 2022/2555</a>) (oder ausgeschrieben: die<strong> Network and Information Systems Directive 2</strong>) ist das neue zentrale europäische Flaggschiff-Regelwerk zur <strong>Stärkung der Cybersicherheit</strong> innerhalb der Europäischen Union. Sie löst die bisherige <strong>NIS-Richtlinie</strong> von 2016 ab und verpflichtet deutlich mehr Unternehmen und Organisationen, ein <strong>angemessenes Cyberrisikomanagement</strong> einzuführen, um die <strong>Widerstandsfähigkeit</strong> kritischer und wichtiger Infrastrukturen gegenüber Cyberangriffen, Systemausfällen und Manipulationen zu erhöhen &#8211; und so die digitale Souveränität Europas zu sichern. In Zeiten von KI und Cloud eine wichtige Aufgabe.</p>
<p>Betroffen sind dabei aber nicht mehr nur <strong>Betreiber kritischer Infrastrukturen</strong> (z. B. Energieversorgung, Verkehr, Gesundheit), sondern auch Cloud- und SaaS-Anbieter, Rechenzentrums-, Hosting- und Managed-Service-Provider, Post- und Abfallwirtschaft, Lebensmittelproduktion, öffentliche Verwaltung sowie Hersteller bestimmter digitaler Produkte (insb. Hard- und Software für kritische Infrastruktur). Die Anforderungen reichen von der Implementierung technischer und organisatorischer Sicherheitsmaßnahmen über verbindliche <strong>Meldepflichten</strong> bei Sicherheitsvorfällen bis hin zu umfangreichen <strong>Sanktionsmöglichkeiten</strong>, die vergleichbar mit der DSGVO ausgestaltet sind.</p>
<p>Für viele Unternehmen bedeutet NIS-2 dabei eine weitere <strong>Compliance-Pflicht</strong> im Bereich Informationssicherheit, die tief in bestehende Prozesse, IT-Systeme und Lieferketten eingreift. Die Mitgliedsstaaten müssen die Richtlinie bis<strong> spätestens 17. Oktober 2024</strong> in nationales Recht umsetzen – in Deutschland geschieht dies durch das neue <a href="https://www.bmi.bund.de/SharedDocs/gesetzgebungsverfahren/DE/CI1/nis2umsucg.html">NIS-2-Umsetzungsgesetz</a> (NIS2UmsuCG).</p>
<h3>Was die NIS-2 Richtlinie regelt</h3>
<p>NIS-2 legt verbindliche <strong>Mindeststandards</strong> für die Sicherheit von <strong>Netz- und Informationssystemen</strong> fest und definiert, wie Unternehmen Risiken erkennen, bewerten und mindern müssen. Sie stärkt die europaweite <strong>Zusammenarbeit</strong> zwischen den nationalen <strong>Cybersicherheitsbehörden</strong> und fordert den Aufbau von Melde-, Überwachungs- und Präventionsstrukturen. Ziel der Richtlinie ist ein einheitliches Sicherheitsniveau in der gesamten EU, das <strong>Cyberbedrohungen</strong> systematisch vorbeugt und Auswirkungen auf Wirtschaft und Gesellschaft minimiert.</p>
<h3>Wichtige Grundprinzipien der NIS-2 Richtlinie</h3>
<p>Die NIS-2-Richtlinie definiert verbindliche Grundprinzipien, die das Fundament eines einheitlichen europäischen Cybersicherheitsniveaus bilden sollen. Sie verschärft die bisherigen <a href="https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:32016L1148">Anforderungen aus NIS-1</a> deutlich und weitet sie auf neue Branchen und Akteure aus. Im Zentrum stehen dabei <strong>Maßnahmen</strong> zur <strong>Prävention</strong>, <strong>Überwachung</strong> und <strong>Reaktion auf Cybervorfälle</strong> &#8211; mit besonderem Fokus auf <strong>Verantwortung</strong>, <strong>Meldepflichten</strong> und <strong>Risikomanagement</strong> entlang der gesamten digitalen Lieferkette:</p>
<ul>
<li><strong>Erweiterter Geltungsbereich:</strong> Gilt für über zehn neue Sektoren und Dienstleister, darunter Cloud-Anbieter, Managed Services, Post- und Abfallwirtschaft, Lebensmittelproduktion und öffentliche Verwaltung.</li>
<li><strong>Pflicht zum Cyber-Risikomanagement:</strong> Einführung und Nachweis von Sicherheitsmaßnahmen auf organisatorischer, technischer und personeller Ebene (z. B. Zugriffskontrollen, Notfallmanagement, Schulungen).</li>
<li><strong>Verpflichtende Meldung von Sicherheitsvorfällen:</strong> Erstmeldung innerhalb von 24 Stunden, Abschlussmeldung binnen 72 Stunden nach Vorfall.</li>
<li><strong>Verantwortlichkeit der Unternehmensleitung:</strong> Geschäftsführung und Vorstand tragen die volle Verantwortung für die Umsetzung und Einhaltung.</li>
<li><strong>Aufsicht und Sanktionen:</strong> Nationale Behörden erhalten erweiterte Prüf- und Eingriffsrechte; Bußgelder bis zu 10 Mio. € oder 2 % des weltweiten Jahresumsatzes möglich.</li>
<li><strong>Lieferketten- und Drittparteirisiken:</strong> Sicherheitsanforderungen gelten ausdrücklich auch für Zulieferer, IT-Dienstleister und Auftragsverarbeiter.</li>
</ul>
<h3>Praxisrelevanz von NIS-2 &#8211; Wann sind Unternehmen betroffen?</h3>
<p>Unternehmen sind <strong>direkt oder indirekt betroffen</strong>, sobald sie als „<strong>wesentliche</strong>“ oder „<strong>wichtige Einrichtungen</strong>“ eingestuft werden. Dazu zählen neben klassischen kritischen Infrastrukturen zunehmend auch digitale Dienstleister, SaaS-Anbieter, Hosting- und Cloud-Plattformen sowie mittelständische Industrie- und Logistikunternehmen, die datenbasierte Systeme betreiben (s.o.). Nach einer Faustregel sind Organisationen dann betroffen, wenn sie&#8230;</p>
<ul>
<li>IT- und Informationssicherheitsmanagementsysteme (ISMS) verwalten, nachweisen oder aufbauen,</li>
<li>Lieferantenbewertungen und Cyber-Due-Diligence durchführen,</li>
<li>Incident-Response-Prozesse (formale Prozess zu Reaktion auf IT-Sicherheitsvorfälle) und Meldeketten einrichten,<br />
Verantwortlichkeiten und Governance-Strukturen klar definieren.</li>
</ul>
<h3>Rechtliche Einordnung</h3>
<ul>
<li><strong>Rechtsgrundlage</strong>: Richtlinie (EU) 2022/2555 des Europäischen Parlaments und des Rates vom 14. Dezember 2022</li>
<li><strong>Inkrafttreten der Richtlinie</strong>: 16. Januar 2023</li>
<li><strong>Umsetzung in nationales Recht</strong>: bis spätestens 17. Oktober 2024</li>
<li><strong>Ziel</strong>: Harmonisierung der nationalen Cybersicherheitsstrategien in allen EU-Mitgliedsstaaten</li>
<li><strong>Bezug zu anderen Regelwerken</strong>: Ergänzt die DSGVO (Datenschutz), den Data Act (Datenzugang), den Cybersecurity Act (Zertifizierung) und DORA (Finanzsektor)</li>
</ul>
<h3>Beratung zur NIS-2-Richtlinie durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen bei der <strong>praktischen Umsetzung der NIS-2-Anforderungen</strong>, von der <strong>Einstufung</strong> über die <strong>Durchführung</strong> von <strong>Gap-Analysen</strong> bis zum Aufbau eines Informationssicherheitsmanagementsystems (ISMS) nach <strong>ISO 27001</strong> oder <strong>BSI-Grundschutz</strong>. Dabei werden Meldeprozesse, Lieferketten-Risiken und Governance-Strukturen gezielt integriert. Durch <strong>Schulungen, Mitarbeiter-Workshops </strong>und <strong>Audit-Vorbereitung</strong> sorgt Elsen GRC dafür, dass Organisationen die Vorgaben des NIS2-Umsetzungsgesetzes rechtssicher, effizient und nachvollziehbar erfüllen können und mit solider Cyber-Infrastruktur am Markt agieren. Vereinbaren Sie jetzt ein <a href="https://elsengrc.com/contact/">unverbindliches Beratungsgespräch</a>.</p>
<h3>NIS-2-Richtlinie – Zusammenfassung</h3>
<p>NIS-2 ist auf Verpflichtung, Nachweis und Kontrolle ausgelegt &#8211; also auf Einhaltung, Koordination und Verantwortung, nicht nur Steuerung:</p>
<ol>
<li><strong>Verbindliche Sicherheitsmaßnahmen:</strong> Einführung von Cyber-Risikomanagement, Zugangskontrollen und Notfallplänen.</li>
<li><strong>Meldepflichten</strong>: Sicherheitsvorfälle müssen fristgerecht gemeldet und dokumentiert werden.</li>
<li><strong>Verantwortlichkeit der Unternehmensleitung</strong>: Die Geschäftsführung haftet für die Einhaltung der Pflichten.</li>
<li><strong>Aufsicht &amp; Sanktionen</strong>: Nationale Behörden dürfen prüfen, anordnen und sanktionieren.</li>
<li><strong>Koordination &amp; Resilienz</strong>: Förderung von EU-weiten Sicherheitsstandards und sektorübergreifender Zusammenarbeit.</li>
</ol>
<a class="nectar-button n-sc-button large accent-color regular-button"  href="/contact/" data-color-override="false" data-hover-color-override="false" data-hover-text-color-override="#fff"><span>Unverbindliche Beratung anfordern</span></a>
<hr />
<p>Quellen<strong>:</strong></p>
<ul>
<li><a href="https://eur-lex.europa.eu/eli/dir/2022/2555/oj">EUR-Lex &#8211; Directive (EU) 2022/2555 of the European Parliament (Abruf: 09.11.25)</a></li>
<li><a href="https://digital-strategy.ec.europa.eu/en/policies/nis2-directive">NIS2 Directive: securing network and information systems (Abruf: 09.11.25)</a></li>
<li><a href="https://www.enisa.europa.eu/topics/awareness-and-cyber-hygiene/raising-awareness-campaigns/network-and-information-systems-directive-2-nis2">enisa &#8211; Network and Information Systems Directive 2 (NIS2) (Abruf: 09.11.25)</a></li>
</ul>
<p>Bild: Sajad Nori &#8211; Unsplash.com</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/c/nis-2-richtlinie/">NIS-2 Richtlinie &#8211; Definition, Bedeutung &#038; Pflichten</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/wiki/c/nis-2-richtlinie/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>4 Risikostufen im EU AI Act &#8211; Definition und Bedeutung</title>
		<link>https://elsengrc.com/wiki/g/4-risikostufen-eu-ai-act-definition-und-bedeutung/</link>
					<comments>https://elsengrc.com/wiki/g/4-risikostufen-eu-ai-act-definition-und-bedeutung/#comments</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Wed, 05 Nov 2025 13:30:21 +0000</pubDate>
				<category><![CDATA[Governance]]></category>
		<category><![CDATA[Wiki]]></category>
		<category><![CDATA[EU AI Act]]></category>
		<category><![CDATA[Risikostufen]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=732</guid>

					<description><![CDATA[<p>Der EU AI Act verfolgt einen klaren, risikobasierten Ansatz: KI-Systeme werden je nach Gefährdungspotenzial in vier Risikostufen eingeteilt &#8211; von &#8222;minimal&#8220; bis &#8222;inakzeptabel&#8220; (verboten). Für Unternehmen, Behörden und Dienstleister ist...</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/g/4-risikostufen-eu-ai-act-definition-und-bedeutung/">4 Risikostufen im EU AI Act &#8211; Definition und Bedeutung</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Der <a href="https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/">EU AI Act</a> verfolgt einen klaren, <strong>risikobasierten Ansatz</strong>: KI-Systeme werden je nach Gefährdungspotenzial in <strong>vier Risikostufen</strong> eingeteilt &#8211; von &#8222;minimal&#8220; bis &#8222;inakzeptabel&#8220; (verboten). Für Unternehmen, Behörden und Dienstleister ist es daher essenziell, ihre eigenen KI-Anwendungen bzw. KI-Integrationen korrekt zu bewerten und zu klassifizieren, denn jede Stufe bringt unterschiedliche Anforderungen mit sich: von <strong>Transparenzpflichten</strong> über <strong>Konformitätsbewertung</strong> bis hin zum <span style="text-decoration: underline;"><strong>vollständigen Verbot</strong></span>. Wer die Klassifizierung verpasst, riskiert also nicht nur Wettbewerbsnachteile und regulatorische Nachteile, sondern auch Haftung oder unmittelbare Innovationshemmnisse.</p>
<h2>Hintergrund der 4 Risikostufen im EU AI Act</h2>
<p>Der EU AI Act regelt erstmals umfassend KI-Systeme in der Europäischen Union unter einem einheitlichen Rahmen. Zentral ist dabei die risikobasierte Systematisierung von KI-Anwendungen – denn nicht jede KI-Lösung wirft gleich hohe Risiken für Gesundheit, Sicherheit oder Grundrechte auf.</p>
<h3>Die Klassifikation gliedert sich in vier Kategorien:</h3>
<ol>
<li><strong>Unacceptable Risk</strong> (inakzeptables Risiko)</li>
<li><strong>High Risk</strong> (Hochrisiko)</li>
<li><strong>Limited Risk</strong> (Begrenztes Risiko)</li>
<li><strong>Minimal / no Risk</strong> (Minimales bzw. geringes oder kein Risiko)</li>
</ol>
<p>Die Einordnung orientiert sich an den möglichen Auswirkungen eines KI-Systems auf Leben, Sicherheit, gesellschaftliche Grundrechte oder demokratische Prozesse. Je höher das Risiko, desto strenger die regulatorischen Anforderungen.</p>
<h2><img fetchpriority="high" decoding="async" class="alignnone wp-image-726 " src="https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act.png" alt="4 Risikostufen im EU AI Act" width="900" height="720" srcset="https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act.png 2500w, https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act-300x240.png 300w, https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act-1024x819.png 1024w, https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act-768x614.png 768w, https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act-1536x1229.png 1536w, https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act-2048x1638.png 2048w" sizes="(max-width: 900px) 100vw, 900px" /></h2>
<h2>Die vier Risikostufen im EU AI Act im Detail</h2>
<p>Die Klassifizierung der vier Risikostufen lässt sich in vier Abstufungen beschreiben:</p>
<h3>1. Inakzeptables Risiko</h3>
<p>Diese Kategorie umfasst alle KI-Systeme, deren <strong>Einsatz als unvereinbar mit den Grundwerten und Grundrechten der EU</strong> gilt, etwa weil sie Menschen manipulieren, überwachen oder diskriminieren oder bewerten. Der EU AI-Act verbietet solche Systeme vollständig.</p>
<p><strong>Beispiele: </strong></p>
<ul>
<li>Systeme zur sozialen Bewertung von Personen („Social Scoring“),</li>
<li>Emotionserkennung in Bildungs- oder Arbeitskontexten,</li>
<li>Echtzeit-biometrische Identifikation in öffentlich zugänglichen Räumen.</li>
</ul>
<h3>2. Hochrisiko</h3>
<p>KI-Systeme, die <strong>erhebliche Gefahren für Gesundheit, Sicherheit oder Grundrechte und Grundwerte</strong> mit sich bringen, fallen in diese Kategorie. Dazu zählen Anwendungen in kritischen Infrastrukturen, in der Bildung, in der Personalauswahl, bei Krediten, in Justiz oder Grenzkontrolle. Für diese Systeme gelten umfassende Anforderungen, wie ein professionelles  Risikomanagement, Daten-Governance, ausführliche Dokumentation, regelmäßige menschliche Aufsicht, Robustheit und Konformitätsbewertung. Auch eine DSFA (Datenschutz-Folgeabschätzung) kann notwendig sein, wenn personenbezogene Daten betroffen sind. Genaueres dazu regeln <a href="https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689">Anhang I und III des EU AI Act</a>.</p>
<p><strong>Beispiele</strong>:</p>
<ul>
<li>Medizinprodukte mit KI-Integrationen</li>
<li>KI-Systeme in kritischer Infrastruktur (Energie, Telekommunikation, Versorgung&#8230;)</li>
<li>Autonome Fahrzeuge</li>
<li>KI-gestützte Bewerbungsverfahren</li>
<li>Spielzeuge</li>
</ul>
<h3>3. Begrenztes Risiko</h3>
<p>Umfasst KI-Systeme, bei denen das <strong>Risiko geringer</strong> ist, aber <strong>Transparenz- und Informationspflichten</strong> bestehen. Hier ist vor allem die Offenlegungspflicht relevant, d.h. ein Benutzer muss erkennen können, dass er mit einer KI kommuniziert, z.B. durch entsprechende Hinweise wie „Sie kommunizieren mit einem KI-Agenten&#8220;.</p>
<p><strong>Beispiele:</strong></p>
<ul>
<li>KI-Chatbots oder AI-Agenten</li>
<li>Generative KIs, die Inhalte (Texte, Bilder, Videos, Audio) erzeugen</li>
<li>KI-basierte Ticketsysteme mit automatischer Verarbeitung von personenbezogenen Informationen</li>
</ul>
<h3>4. Minimales oder kein Risiko</h3>
<p>Diese Kategorie umfasst KI-Anwendungen mit <strong>sehr geringem Risiko</strong>. Sie bleiben vom AI Act weitgehend <strong>unreguliert</strong>, ohne spezifische Pflichten im Rahmen der Verordnung. Dennoch gelten allgemeine Prinzipien wie Fairness, Transparenz oder Datenschutz weiter, insbesondere im Rahmen der DSGVO.</p>
<p><strong>Beispiele</strong>:</p>
<ul>
<li>Spam-Filter und KI-gestützte alltägliche Sicherheitsmechanismen</li>
<li>KI-gestützte Schreibassistenten</li>
<li>automatische Textvorschläge</li>
</ul>
<h2>Auswirkungen auf Unternehmen &amp; Behörden</h2>
<p>Die Einordnung in eine Risikostufe entscheidet über Umfang und Art der regulatorischen Pflichten, daher sollten Unternehmen und Behörden frühzeitig ihre <strong>KI-Use-Cases</strong> analysieren und entsprechend dieser 4 Stufen klassifizieren. Für <strong>Anbieter und Betreiber von Hochrisiko-KI</strong> bedeutet das z. B., passende Prozesse aufzusetzen: <strong>Dokumentation</strong>, <strong>Audit-fähige Nachweise</strong>, <strong>Datenqualität</strong>, menschliche <strong>Kontrolle</strong>, <strong>Cyber-Security &amp; Risk Management</strong>. Für KI mit begrenztem Risiko insbesondere <strong>Informations- und Transparenzpflichten</strong>. Bei verbotenen Anwendungen ist der Einsatz aber ohnehin ausgeschlossen!</p>
<p><strong>Behörden</strong> und öffentliche Einrichtungen, die KI-Systeme einsetzen, beschaffen oder auf sonstige Wiese bereitstellen, müssen ihre Governance- und Beschaffungsprozesse anpassen &#8211; insbesondere bei Hochrisiko- oder verbotenen Anwendungen. Gerne <a href="https://elsengrc.com/contact/">beraten wir Sie hier</a>.</p>
<h3>Bezug zu Governance, Risk &amp; Compliance (GRC)</h3>
<p>Die vier Risikostufen bilden eine unmittelbare Verbindung zu den GRC-Dimensionen:</p>
<ul>
<li><strong>Governance</strong>: Wer verantwortet die Klassifizierung einer KI-Anwendung? Wie sind Zuständigkeiten und Prozesse geregelt?</li>
<li><strong>Risk</strong>: Welche Risiken bringt die KI mit sich? Insbesondere welche für Rechte, Reputation, Sicherheit? Wie werden sie gemanagt?</li>
<li><strong>Compliance</strong>: Welche regulatorischen Anforderungen gelten je Risikostufe? Welche Nachweise müssen konkret erbracht oder vorgehalten werden?</li>
</ul>
<p>Ein systematischer GRC-Ansatz hilft, KI-Systeme effizient und rechtssicher in bestehende Management-Systeme einzubetten und bewahr vor bösen Überraschungen im AI-Daily-Business.</p>
<h3>Fachliche Einschätzung</h3>
<p>In Sachen Einstufung war die EU-Kommission also einigermaßen klar, denn die vier-stufige Klassifikation im AI Act bietet einen pragmatischen Rahmen für die Praxis und Beratung. Allerdings bleibt die Herausforderung: Viele Use-Cases lassen sich nicht sofort eindeutig einer Kategorie zuordnen oder haben große Schnittmengen (insbesondere im medizinischen Sektor). Hier zählt der Kontext! Zudem wird die regulatorische Landschaft durch ergänzende Vorgaben (z. B. zu <strong>General-Purpose KI</strong>) zunehmend komplex. Eine frühzeitige Analyse und Governance-Aufbau sind deshalb strategisch absolut ratsam.</p>
<h3>Beratung zu den Risikostufen im EU AI Act</h3>
<p>Elsen GRC begleitet Unternehmen, SaaS-Anbieter und Behörden bei der sicheren und gesetzeskonformen Umsetzung des EU AI Act und der Einstufung der vier Risikostufen. Wir analysieren und klassifizieren Ihre KI-Anwendungen, entwickeln passgenaue Governance-Strukturen und integrieren die Anforderungen in bestehende Compliance- und Management-Systeme. Natürlich inklusive praxisnaher Dokumentationsprozesse und Schulungen von Mitarbeiter und Management.</p>
<a class="nectar-button n-sc-button large accent-color regular-button"  href="/contact/" data-color-override="false" data-hover-color-override="false" data-hover-text-color-override="#fff"><span>Unverbindliche Beratung anfordern</span></a>
<hr />
<p>Quellen:</p>
<ul>
<li><a href="https://digital-strategy.ec.europa.eu/de/policies/regulatory-framework-ai">Europäische Kommission: „EU AI Act &#8211; Risikobasierter Ansatz“</a></li>
<li><a href="https://www.rtr.at/rtr/service/ki-servicestelle/ai-act/risikostufen_ki-systeme.de.html">RTR-KI-Servicestelle: „KI-Systeme und die vier Risikostufen“</a></li>
<li><a href="https://intellias.com/eu-ai-act-risk-levels/">Intellias: &#8222;EU AI Act: Decoding risk levels for AI systems&#8220;</a></li>
</ul>
<p>Bild: <a href="https://unsplash.com/de/@eugene_tkachenko?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Eugene Tkachenko</a> &#8211; Unsplash.com</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/g/4-risikostufen-eu-ai-act-definition-und-bedeutung/">4 Risikostufen im EU AI Act &#8211; Definition und Bedeutung</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/wiki/g/4-risikostufen-eu-ai-act-definition-und-bedeutung/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>EU Data Act (EU-Datenverordnung) &#8211; Definition, Bedeutung &#038; Pflichten für Unternehmen</title>
		<link>https://elsengrc.com/wiki/g/eu-data-act-eu-datenverordnung/</link>
					<comments>https://elsengrc.com/wiki/g/eu-data-act-eu-datenverordnung/#comments</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Tue, 28 Oct 2025 22:26:39 +0000</pubDate>
				<category><![CDATA[Governance]]></category>
		<category><![CDATA[Wiki]]></category>
		<category><![CDATA[Data Act]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=644</guid>

					<description><![CDATA[<p>Der EU Data Act ist eine europäische Verordnung, die den fairen Zugang zu Daten sowie die Nutzung von Daten innerhalb der Europäischen Union regelt. Ziel ist es, Daten aus vernetzten...</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/g/eu-data-act-eu-datenverordnung/">EU Data Act (EU-Datenverordnung) &#8211; Definition, Bedeutung &#038; Pflichten für Unternehmen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div>
<p>Der <strong>EU Data Act</strong> ist eine <strong>europäische Verordnung</strong>, die den fairen Zugang zu Daten sowie die Nutzung von Daten innerhalb der Europäischen Union regelt. Ziel ist es, Daten aus <strong>vernetzten Geräten</strong> (z.B. Smartphones, SmartTVs, Autos mit digitaler Kommunikation), <strong>industriellen Anwendungen</strong> und <strong>digitalen Diensten</strong> besser nutzbar zu machen – sowohl für Verbraucher als auch für Unternehmen. Der Data Act ist Teil der europäischen Digitalstrategie und ergänzt den <strong>Data Governance Act</strong> sowie die <strong>DSGVO</strong>.</p>
<h3>Was der EU Data Act bzw. die EU-Datenverordnung regelt</h3>
<p>Der EU Data Act definiert <strong>Rechte</strong> und <strong>Pflichten</strong> rund um die <strong>Nutzung</strong>, <strong>Weitergabe</strong> und <strong>Portabilität</strong> von Daten. Er verpflichtet die Hersteller und Anbieter von vernetzten Geräten und Cloud-Diensten, seinen Nutzern und Geschäftspartnern Zugriff auf die generierten Daten zu ermöglichen – unabhängig davon, ob sie personenbezogen sind oder nicht.</p>
<p><strong>Wichtige Kernpunkte der Verordnung:</strong></p>
<ol>
<li><strong>Zugangsrechte</strong>: Die Nutzer von vernetzten Geräten (z. B. Maschinen, Fahrzeuge, Sensoren) erhalten Anspruch auf die Daten, die durch ihre Nutzung entstehen.</li>
<li><strong>Datenteilung</strong>: Unternehmen müssen technische Schnittstellen schaffen, um Daten zwischen Geschäftspartnern oder Behörden sicher austauschen zu können (Interoperabilität).</li>
<li><strong>Vertragliche Fairness</strong>: Der EU Data Act verpflichtet zu fairen Bedingungen bei der Datennutzung, insbesondere zwischen großen und kleinen Unternehmen (KMU).</li>
<li><strong>Cloud-Portabilität</strong>: Kunden sollen ihre Daten und Anwendungen leichter zwischen Cloud-Anbietern wechseln können (soll „Vendor Lock-in“ vermeiden).</li>
<li><strong>Schutz sensibler Daten</strong>: Der EU Data Act schränkt die Weitergabe in Länder außerhalb der EU ein, wenn dort kein gleichwertiges Datenschutzniveau besteht.</li>
</ol>
<p>Hinweis: Im Rahmen der DSGVO wurde von der EU eine Liste von sicheren Drittstaaten für die Datenübermittlung veröffentlicht, die hier als Orientierung dienen kann!</p>
<h3>Praxisrelevanz</h3>
<p>Der Data Act betrifft nahezu alle Unternehmen, die Daten aus Geräten, Plattformen oder Cloud-Systemen generieren oder nutzen. Besonders betroffen sind Industrie 4.0-, SaaS-, IoT- und Cloud-Anbieter. Für <a href="https://elsengrc.com/contact/">Datenschutzbeauftragte</a> und IT-Verantwortliche bedeutet das: Datenflüsse müssen neu bewertet, Verträge angepasst und technische Schnittstellen überprüft werden.</p>
<h3>Rechtliche Einordnung</h3>
<p>Die <strong>Verordnung (EU) 2023/2854</strong> wurde am <strong>22. Dezember 2023</strong> im Amtsblatt der EU veröffentlicht und trat am 11. Januar 2024 in Kraft. Sie gilt nach einer Übergangsfrist <strong>ab dem 12. September 2025</strong> unmittelbar in <span style="text-decoration: underline;">allen</span> Mitgliedstaaten. Der EU Data Act ergänzt bestehende Regelwerke wie die DSGVO (personenbezogene Daten), den Data Governance Act (Datenzugangsmechanismen) und den <a href="https://elsengrc.com/wiki/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/">EU AI Act (KI-Regulierung)</a>.</p>
<h3>Beratung zum EU Data Act durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen bei der Bewertung und Umsetzung der Anforderungen des EU Data Acts. Dazu gehören nicht nur die Analyse bestehender Datenflüsse und Prozesse, sondern auch die Optimierung von Verträgen und Cloud-Vereinbarungen, die technische Prüfung von Drittlandsübermittlungen sowie der Aufbau transparenter Daten-Governance-Strukturen. Ziel ist es, rechtliche Sicherheit zu schaffen und gleichzeitig die Potenziale datengestützter Innovation verantwortungsvoll zu nutzen.<a href="https://elsengrc.com/contact/"> Vereinbaren Sie einfach ein unverbindliches Gespräch für eine Beratung zum EU Data Act.</a></p>
</div>
<div>
<hr />
<p>Foto von <a href="https://unsplash.com/de/@jdent?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Jason Dent</a> auf <a href="https://unsplash.com/de/fotos/ein-schwarz-weiss-foto-eines-schildes-mit-der-aufschrift-privatsphare-bitte-JFk0dVyvdvw?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Unsplash</a></p>
</div>
<div>
<p><strong>Quellen:</strong></p>
<ul>
<li>Verordnung (EU) 2023/2854 des Europäischen Parlaments und des Rates vom 13. Dezember 2023 – Data Act (Amtsblatt L 2023/2854) – <a href="https://eur-lex.europa.eu/eli/reg/2023/2854/oj">eur-lex.europa.eu</a></li>
<li>Digital Strategy Portal der EU – „Regulatory framework on data“ – <a href="https://digital-strategy.ec.europa.eu/en/policies/data-act">digital-strategy.ec.europa.eu</a></li>
</ul>
</div>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/g/eu-data-act-eu-datenverordnung/">EU Data Act (EU-Datenverordnung) &#8211; Definition, Bedeutung &#038; Pflichten für Unternehmen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/wiki/g/eu-data-act-eu-datenverordnung/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>EU AI Act &#8211; Definition, Bedeutung &#038; Pflichten für Unternehmen</title>
		<link>https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/</link>
					<comments>https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/#comments</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Sun, 26 Oct 2025 10:47:18 +0000</pubDate>
				<category><![CDATA[Governance]]></category>
		<category><![CDATA[Wiki]]></category>
		<category><![CDATA[EU AI Act]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=588</guid>

					<description><![CDATA[<p>Der EU AI Act ist die erste umfassende europäische Verordnung zur Regulierung von Künstlicher Intelligenz. Ziel ist es, den sicheren, transparenten und vertrauenswürdigen Einsatz von KI-Systemen in Europa zu gewährleisten,...</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/">EU AI Act &#8211; Definition, Bedeutung &#038; Pflichten für Unternehmen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Der <a href="https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence">EU AI Act</a> ist die erste umfassende <strong>europäische Verordnung zur Regulierung von Künstlicher Intelligenz</strong>. Ziel ist es, den sicheren, transparenten und vertrauenswürdigen Einsatz von KI-Systemen in Europa zu gewährleisten, ohne Innovation zu behindern. Die Verordnung trat am <strong>01. August 2024</strong> in Kraft und kommt mit unterschiedlichen Übergangsfristen, mehr dazu in der <a href="#einordnung">rechtlichen Einordnung</a>.</p>
<h3>Was der EU AI Act regelt</h3>
<p>Der AI Act definiert, <strong>was als KI-System gilt</strong>, und ordnet diese nach ihrem spezifischen Anwendungs-Risiko ein. Je höher das <strong>Risiko</strong> für <strong>Grundrechte</strong>, <strong>Sicherheit</strong> oder <strong>Datenschutz</strong>, desto <strong>strenger die Anforderungen</strong>. Die Verordnung gilt für alle Anbieter, Importeure, Händler und Nutzer von KI-Systemen innerhalb der EU – unabhängig davon, ob die Systeme in der EU entwickelt wurden oder nicht. Das beutetet, auch Unternehmen, die KI (z.B. die API von Open AI, also ChatGPT) in Ihre Anwendungen, Websites oder Produkte integrieren, müssen die Verordnung berücksichtigen.</p>
<p><strong>Risikokategorien des EU AI Act</strong></p>
<ol>
<li><strong>Unzulässige KI-Systeme</strong> – etwa Social-Scoring oder manipulative Systeme, die verboten werden (auch z.B. Emotionserkennung am Arbeitsplatz)</li>
<li><strong>Hochrisiko-KI-Systeme</strong> – z. B. Anwendungen in kritischen Infrastrukturen, Beschäftigung, Bildung, Justiz oder biometrischer Identifizierung.</li>
<li><strong>Begrenztes Risiko</strong> – Systeme, die Transparenzpflichten erfüllen müssen (z. B. Chatbots, die offengelegt werden müssen).</li>
<li><strong>Minimales Risiko</strong> – Anwendungen, die keine besonderen Pflichten haben.</li>
</ol>
<h3>Anforderungen für Hochrisiko-Systeme</h3>
<p>Anbieter solcher Systeme müssen ein umfassendes Risikomanagement-System, Daten- und Qualitätsmanagement, technische Dokumentation sowie Konformitätsbewertung nachweisen. Sie sind verpflichtet, menschliche Aufsicht sicherzustellen und Transparenz gegenüber Nutzern zu gewährleisten.</p>
<h3>Praxisrelevanz für Unternehmen</h3>
<p>Für Unternehmen bedeutet der AI Act, dass jede KI-Anwendung künftig hinsichtlich ihrer Risikoklasse geprüft und dokumentiert werden muss. Insbesondere SaaS- und Cloud-Anbieter, die KI-Funktionen integrieren, müssen Compliance-Prozesse etablieren, um die Anforderungen frühzeitig zu erfüllen.</p>
<h3 id="einordnung">Rechtliche Einordnung</h3>
<p>Die Verordnung über Künstliche Intelligenz (AI Act) ist Teil der Digitalstrategie der EU und ergänzt bestehende Regelwerke wie die <strong>DSGVO</strong> und den <strong>Data Act</strong>. Nach der finalen Zustimmung des Europäischen Parlaments im Jahr 2024 tritt sie voraussichtlich 2025 mit Übergangsfristen von bis zu zwei Jahren in Kraft.</p>
<p><strong>Beispielhafte Artikelverweise:</strong></p>
<ul>
<li>Artikel 5 ff. &#8211; Verbotene KI-Praktiken</li>
<li>Artikel -.7 &#8211; Hochrisiko-Systeme</li>
<li>Artikel 8-15 &#8211; Pflichten der Anbieter</li>
<li>Artikel 69  &#8211; Sanktionen bei Verstößen</li>
</ul>
<h3>Beratung im Rahmen des EU AI Act durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen dabei, ihre KI-Systeme frühzeitig auf AI-Act-Konformität zu prüfen und erforderliche Governance-Strukturen aufzubauen. Dazu gehören Risikoanalysen, die Zuordnung zu Risikoklassen, der Aufbau von Nachweis- und Dokumentationspflichten sowie die Integration des Themas KI-Compliance in bestehende Datenschutz- und ISMS-Strukturen. Ziel ist es, regulatorische Sicherheit zu schaffen, ohne Innovation zu bremsen.</p>
<a class="nectar-button n-sc-button large accent-color regular-button"  href="/contact/" data-color-override="false" data-hover-color-override="false" data-hover-text-color-override="#fff"><span>Unverbindliche Beratung zum EU AI Act anfordern</span></a>
<h3 style="padding-top: 50px;">News zum EU AI Act</h3>
<ul>
<li><a href="https://elsengrc.com/journal/news/eu-ai-act-uebergangsfristen-fuer-hochrisiko-ki-bis-2027-verlaengert/">EU AI Act Übergangsfristen für Hochrisiko-KI bis 2027 verlängert (05.11.25)</a></li>
</ul>
<p>&nbsp;</p>
<hr />
<p>Quellen:</p>
<ul>
<li>EUR-Lex: Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (<a href="https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng">LINK</a>)</li>
<li>EU Commission News: “AI Act enters into force” – 1. August 2024 (<a href="https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_en">LINK</a>)</li>
<li>“The Act Texts | EU Artificial Intelligence Act” – artificialintelligenceact.eu (12 Juli 2024), (<a href="https://artificialintelligenceact.eu/the-act/">LINK</a>)</li>
</ul>
<p>Bild von <a href="https://unsplash.com/de/@alexandrelallemand?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">ALEXANDRE LALLEMAND</a> &#8211; Unsplash.com</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/">EU AI Act &#8211; Definition, Bedeutung &#038; Pflichten für Unternehmen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/feed/</wfw:commentRss>
			<slash:comments>7</slash:comments>
		
		
			</item>
	</channel>
</rss>
