<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Mario Elsen, Autor bei ELSEN GRC</title>
	<atom:link href="https://elsengrc.com/author/mario-elsen/feed/" rel="self" type="application/rss+xml" />
	<link>https://elsengrc.com/author/mario-elsen/</link>
	<description>Governance, Risk, Compliance Beratung - AI Privacy &#38; SaaS</description>
	<lastBuildDate>Tue, 07 Apr 2026 22:19:32 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://elsengrc.com/docs/uploads/2025/10/cropped-512-32x32.png</url>
	<title>Mario Elsen, Autor bei ELSEN GRC</title>
	<link>https://elsengrc.com/author/mario-elsen/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Fachagent als DSGVO-konformer KI-Chatbot für KMU</title>
		<link>https://elsengrc.com/journal/fachagent-dsgvo-konformer-ki-chatbot/</link>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Tue, 07 Apr 2026 22:15:27 +0000</pubDate>
				<category><![CDATA[GRC Journal]]></category>
		<category><![CDATA[Praxis]]></category>
		<category><![CDATA[ainony.me]]></category>
		<category><![CDATA[Anonymisierung]]></category>
		<category><![CDATA[Chatbot]]></category>
		<category><![CDATA[Fachagent]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1190</guid>

					<description><![CDATA[<p>Wir schreiben Q2 2026 und KI-Chatbots sind inzwischen in aller Munde – oder besser formuliert: Ein KI-Chatbot findet sich in so ziemlich jedem Help-Desk, jeder ERP-Suite, jeder App und auf...</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/fachagent-dsgvo-konformer-ki-chatbot/">Fachagent als DSGVO-konformer KI-Chatbot für KMU</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Wir schreiben Q2 2026 und <strong>KI-Chatbots</strong> sind inzwischen in aller Munde – oder besser formuliert: Ein KI-Chatbot findet sich in so ziemlich jedem <strong>Help-Desk</strong>, jeder <strong>ERP-Suite</strong>, jeder <strong>App</strong> und <strong>auf (fast) jeder Website</strong>. Kaum ein SaaS-Anbieter, der nicht irgendwo <strong>&#8222;KI-basiert&#8220;</strong> auf seine Website schreibt, kaum ein Online-Shop, der nicht über automatisierte Kundenberatung nachdenkt oder diese bereits irgendwo und &#8222;irgendwie&#8220; implementiert hat. Der <strong>Markt an Chatbot-Lösungen wächst rasant</strong>, quasi täglich sprießen neue Tools aus dem Boden und verschwinden genauso schnell auch wieder. Ein Eindruck bleibt aber: Die meisten Lösungen sind mit der &#8222;heißen Nadel&#8220; gestrickt, verwenden simple <strong>GPT-Wrapper</strong> und <strong>es fehlt eine konsequente GRC-Perspektive</strong>, die Wert auf Datenschutz, Risikomanagement und Datenhoheit legt.</p>
<p>Aus meiner Praxis als <a href="https://elsenmedia.com">Webentwickler</a> stand ich immer wieder vor der Aufgabe, nach passenden &#8222;Standardlösungen&#8220; für Kunden zu suchen, die aus Kundensicht nicht nur einfach und unkompliziert zu managen sind, sondern auch meinen fachlichen Ansprüchen an GRC-Faktoren wie sauberen Datenschutz <a href="https://elsengrc.com/wiki/c/dsgvo/">im Sinne der DSGVO</a> genügen, nachvollziehbare Compliance sicherstellen und gleichzeitig eine klare und strukturierte Governance ermöglichen, die im Sinne des Unternehmens ist.</p>
<p>Was auf den ersten Blick wie ein <strong>Effizienzgewinn</strong> für kleine und mittlere Unternehmen aussieht, ist aus Compliance-Perspektive oft ein erhebliches Risiko. Und da wir als Agentur auch für die Auswahl externer Tools oftmals die Hand ins Feuer halten müssen, uns angesichts der hohen Intransparenz und des mangelnden Datenschutzes in vielen Tools aber nur ungern verbrennen, haben wir kurzerhand den Entschluss gefasst, einen <strong>GRC-optimierten und DSGVO-konformen KI-Chatbot</strong> zu entwickeln, der genau diese kritischen Punkte sicherstellt.</p>
<h2>Das Kernproblem: Keine Datenhoheit bei den meisten KI-Chatbots</h2>
<p>Die zentrale Frage, die sich jedes Unternehmen stellen muss, bevor es einen KI-Chatbot auf seiner Website einsetzt, lautet: Was passiert mit den Daten, die meine Kunden im Chat eingeben? Die Antwort ist bei den meisten Anbietern ernüchternd und bildet damit auch das Kernproblem. Fehlende Datenhoheit und Nachvollziehbarkeit über Speicherung und fortlaufende Verarbeitung von sensiblen und/oder personenbezogenen Daten sind bei fast jedem KI-Chatbot eine echte &#8222;Blackbox&#8220;.</p>
<p><strong>Beispiel</strong>:</p>
<p>Ein Kunde besucht die Website eines Handwerksbetriebs und schreibt in den Chat: <em>&#8222;Hallo, ich bin Max Müller aus der Kirchenstraße 12 in Hamburg. Können Sie bei uns im Bad die Fliesen erneuern? Meine Nummer ist 0170 1234567.&#8220;</em></p>
<p>In einer einzigen Nachricht mit etwa 140 Zeichen stecken Name, Adresse, Telefonnummer – alles <strong>personenbezogene Daten im Sinne</strong> des <strong>Art. 4 Nr. 1 DSGVO</strong>. Der Kunde hat sie freiwillig eingegeben, ohne gefragt zu werden. In der datenschutzrechtlichen Terminologie spricht man von &#8222;aufgedrängten Daten&#8220;. Je nach Anwendungsfall können noch medizinische oder ethnische Daten als <strong>besondere Kategorien personenbezogener Daten</strong> (Art. 9 DSGVO) dazukommen und zusätzlich an der Brisanz der Daten zündeln.</p>
<p><strong>Und genau hier beginnt das Problem.</strong> Denn die meisten KI-Chatbot-Anbieter leiten diese Eingabe ungefiltert an ein Sprachmodell weiter — in der Regel an OpenAI, Anthropic oder Google. Die Daten verlassen den europäischen Rechtsraum, werden auf US-Servern verarbeitet, und der Betreiber der Website hat keine Kontrolle darüber, was mit diesen Daten geschieht.</p>
<div id="attachment_1197" style="width: 1760px" class="wp-caption alignnone"><img fetchpriority="high" decoding="async" aria-describedby="caption-attachment-1197" class="size-full wp-image-1197" src="https://elsengrc.com/docs/uploads/2026/04/datenfluss-blackbox.jpg" alt="Datenfluss-Blackbox bei KI-Chatbots: Ein echtes Problem für den Datenschutz" width="1750" height="1571" srcset="https://elsengrc.com/docs/uploads/2026/04/datenfluss-blackbox.jpg 1750w, https://elsengrc.com/docs/uploads/2026/04/datenfluss-blackbox-300x269.jpg 300w, https://elsengrc.com/docs/uploads/2026/04/datenfluss-blackbox-1024x919.jpg 1024w, https://elsengrc.com/docs/uploads/2026/04/datenfluss-blackbox-768x689.jpg 768w, https://elsengrc.com/docs/uploads/2026/04/datenfluss-blackbox-1536x1379.jpg 1536w" sizes="(max-width: 1750px) 100vw, 1750px" /><p id="caption-attachment-1197" class="wp-caption-text">Datenfluss-Blackbox bei KI-Chatbots: Ein echtes Problem für den Datenschutz</p></div>
<p>Das ist also nicht nur ein theoretisches Risiko. Die <strong>DSGVO ist hier eindeutig</strong>: Wer ein <strong>KI-System bereitstellt, das personenbezogene Daten verarbeitet</strong>, ist als <strong>Verantwortlicher nach Art. 4 Nr. 7 DSGVO einzustufen</strong> – und muss sämtliche Pflichten erfüllen, die damit einhergehen. Dazu gehören Rechtsgrundlage, Informationspflicht, Zweckbindung, Datenminimierung und das Recht auf Löschung. Der <a href="https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/">EU AI Act</a> wird zudem noch weitere <a href="https://elsengrc.com/wiki/g/4-risikostufen-eu-ai-act-definition-und-bedeutung/">Stufen zur Risikoprüfung</a> draufsatteln, die ab August 2027 ebenfalls zu berücksichtigen sind.</p>
<p>Ein simples &#8222;Bitte geben Sie keine persönlichen Daten ein&#8220; als Hinweis im Chat reicht aus Compliance-Sicht also nicht aus, um die Verantwortung abzuwälzen. Kunden halten sich nicht an solche Hinweise – und das Unternehmen (oder der Website-Betreiber) bleibt in der Pflicht.</p>
<h2>Was wir bei der Marktrecherche festgestellt haben</h2>
<p>Im Rahmen unserer GRC-Beratungstätigkeit haben wir Dutzende KI-Chatbot-Lösungen geprüft – für unsere Kunden und für eigene Projekte. Das Ergebnis lässt sich in drei Kategorien zusammenfassen:</p>
<ul>
<li><strong>Kategorie 1: US-basierte Self-Service-Plattformen</strong> wie Tidio, Botsonic, Chatling, CustomGPT. Einfach einzurichten, günstiger Preis, funktional überzeugend. Aber: <strong>Datenverarbeitung auf US-Servern</strong>, keine <span style="text-decoration: underline;">echte</span> PII-Kontrolle, DSGVO-Konformität bestenfalls eine Behauptung im Marketing – kein Privacy by Design.</li>
<li><strong>Kategorie 2: Enterprise-Lösungen aus dem DACH-Raum</strong> wie ADVISORI, Pexon Consulting, assono und weitere. DSGVO wird ernst genommen, oft mit Privacy by Design. Aber: Hohe Projektkosten ab fünfstelligen Summen, Setup-Zeiten von Wochen bis Monaten, für KMU schlicht unbezahlbar und unverhältnismäßig teuer.</li>
<li><strong>Kategorie 3: DACH-Nischen-Anbieter</strong> wie Userlike, moinAI, KI-DACH. Hier gibt es bereits &#8222;deutsches Hosting&#8220;, DSGVO-Awareness. Aber: Entweder zu teuer für Kleinunternehmen, zu generisch in der Konfiguration oder ohne echte Anonymisierung – die Daten landen trotzdem beim KI-Modell.</li>
</ul>
<p><strong>Was fehlte:</strong> Eine Lösung, die technische Datenschutz-Architektur (nicht nur Marketing-Claims) mit der Einfachheit verbindet, die ein Handwerker, ein kleiner Online-Shop oder ein Beratungsbüro braucht. Eine Lösung, bei der ein Fliesenleger in Hamburg in fünf Minuten einen KI-Fachberater auf seiner Website hat und trotzdem jede Datenschutzprüfung besteht. Ein KI-Chatbot, der sich in maximal 5 Minuten in die eigene Website integrieren lässt und idealerweise eine native Unterstützung für WordPress liefert – z. B. via WordPress-Plugin.</p>
<h2>Die Idee: Eigenentwicklung &#8211; Privacy by Design und in unter 5 Minuten live</h2>
<p>Wir brauchen also etwas, das es (noch) nicht gibt. Nicht zu dem Preis, nicht in der Einfachheit und vor allem nicht mit der Datenschutz-Architektur, die wir aus GRC-Perspektive für notwendig und aus KMU-Sicht für bezahlbar halten.</p>
<p>Die Konsequenz war die Entwicklung unserer eigenen Chatbot-Lösung: <a href="https://fachagent.com">Fachagent.com</a> – eine SaaS-Plattform für KI-Fachberater auf Websites, die DSGVO-Konformität architektonisch verankert, statt sie als Feature-Label zu verwenden.</p>
<div id="attachment_1205" style="width: 2570px" class="wp-caption alignnone"><img decoding="async" aria-describedby="caption-attachment-1205" class="size-full wp-image-1205" src="https://elsengrc.com/docs/uploads/2026/04/fachagent-ki-chatbot-scaled.jpg" alt="DSGVO-konforme KI-Chatbot-Lösung von Fachagent.com" width="2560" height="907" srcset="https://elsengrc.com/docs/uploads/2026/04/fachagent-ki-chatbot-scaled.jpg 2560w, https://elsengrc.com/docs/uploads/2026/04/fachagent-ki-chatbot-300x106.jpg 300w, https://elsengrc.com/docs/uploads/2026/04/fachagent-ki-chatbot-1024x363.jpg 1024w, https://elsengrc.com/docs/uploads/2026/04/fachagent-ki-chatbot-768x272.jpg 768w, https://elsengrc.com/docs/uploads/2026/04/fachagent-ki-chatbot-1536x544.jpg 1536w, https://elsengrc.com/docs/uploads/2026/04/fachagent-ki-chatbot-2048x725.jpg 2048w" sizes="(max-width: 2560px) 100vw, 2560px" /><p id="caption-attachment-1205" class="wp-caption-text">DSGVO-konforme KI-Chatbot-Lösung von Fachagent.com</p></div>
<h3>Der Kern: Ein eigener Privacy-Layer, der Datenschutz sicherstellt</h3>
<p>Das Herzstück ist unsere <strong>Anonymisierungsschicht <a href="https://ainony.me">ainony.me</a>, die wir kurzerhand als separaten API-Service ausgelagert haben.</strong> Sie sitzt als eigenständige Anwendung <strong>zwischen dem Chat-Widget und dem KI-Modell</strong>. Jede Nachricht durchläuft diese Schicht, bevor sie die KI erreicht:</p>
<ul>
<li>PII-Erkennung in Echtzeit,</li>
<li>Maskierung durch anonymisierte Platzhalter,</li>
<li>Fail-Closed bei Fehlern,</li>
<li>vollständiger Audit-Trail.</li>
</ul>
<p>Die <span style="text-decoration: underline;">KI sieht damit keine personenbezogenen Daten</span> – die <strong>Datenminimierung</strong> passiert <strong>vor der Verarbeitung</strong>, nicht danach.</p>
<p>Andere Anbieter setzen auf &#8222;EU-Server&#8220; als DSGVO-Argument. Das ist notwendig, aber nicht hinreichend. Solange personenbezogene Daten das KI-Modell erreichen, findet eine Verarbeitung statt, unabhängig vom Serverstandort. Ainony.me und Fachagent eliminieren dieses Problem an der Wurzel.</p>
<div id="attachment_1204" style="width: 1760px" class="wp-caption alignnone"><img decoding="async" aria-describedby="caption-attachment-1204" class="size-full wp-image-1204" src="https://elsengrc.com/docs/uploads/2026/04/fachagent-privacy-layer.jpg" alt="Privacy Layer im KI-Chatbot von Fachagent" width="1750" height="1683" srcset="https://elsengrc.com/docs/uploads/2026/04/fachagent-privacy-layer.jpg 1750w, https://elsengrc.com/docs/uploads/2026/04/fachagent-privacy-layer-300x289.jpg 300w, https://elsengrc.com/docs/uploads/2026/04/fachagent-privacy-layer-1024x985.jpg 1024w, https://elsengrc.com/docs/uploads/2026/04/fachagent-privacy-layer-768x739.jpg 768w, https://elsengrc.com/docs/uploads/2026/04/fachagent-privacy-layer-1536x1477.jpg 1536w" sizes="(max-width: 1750px) 100vw, 1750px" /><p id="caption-attachment-1204" class="wp-caption-text">Privacy Layer im KI-Chatbot von Fachagent</p></div>
<h3>Was Fachagent darüber hinaus löst</h3>
<p>Für den Nutzer läuft die gesamte Compliance-Architektur im Hintergrund. <strong>Das Setup ist einfach</strong>:</p>
<ol>
<li>URL eingeben,</li>
<li>Branchenvorlage auswählen,</li>
<li>Chat-Widget einbinden – fertig.</li>
</ol>
<p>Die Anonymisierung, das Audit-Logging und die Transparenzhinweise nach EU AI Act passieren vollautomatisch und revisionssicher. Der Handwerker, der seinen Chatbot einrichtet, muss sich nicht mit Art. 32 DSGVO beschäftigen. Das System stellt es sicher.</p>
<p>Fachagent ist nicht entstanden, weil der Markt noch einen Chatbot brauchte, sondern weil wir eine Lösung anbieten wollten, die Datenschutz durch transparente und nachvollziehbare Architektur garantiert und gleichzeitig ein präzises Beratungsangebot mit Lead-Generierung für Endkunden anbietet. Und genau das sind <a href="https://fachagent.com/#features">Features von Fachagent</a>.</p>
<h3>Der ideale KI-Chatbot für WordPress-Websites</h3>
<p><a href="https://wordpress.org">WordPress</a> ist das meistgenutzte CMS der Welt – und die Grundlage für Hunderttausende KMU-Websites im DACH-Raum. Gleichzeitig ist das WordPress-Ökosystem ein besonderer <strong>Risikobereich</strong>: Plugins laden externe Scripts, übertragen Daten an Drittanbieter und schaffen Angriffsvektoren, die vielen Betreibern nicht bewusst sind.</p>
<p>Für <strong>Fachagent</strong> haben wir deshalb ein <a href="https://fachagent.com/ki-chatbot-wordpress">eigenes WordPress-Plugin</a> entwickelt, das die <a href="https://fachagent.com/integration/wordpress">Integration des KI-Chatbots</a> in WordPress so einfach wie möglich macht. Das Plugin verbindet die WordPress-Website mit dem Fachagent-Backend über einen API-Key. Das Chat-Widget wird asynchron geladen und hat keinen Einfluss auf die Seitenperformance. Es ist kompatibel mit allen gängigen Themes, Page-Buildern und Cookie-Consent-Plugins.</p>
<p>Der entscheidende Punkt: Das Plugin selbst überträgt keine personenbezogenen Daten. Es lädt lediglich das Widget, das die <strong>Chat-Oberfläche</strong> bereitstellt. Die gesamte Datenverarbeitung – inklusive <strong>Anonymisierung</strong> – läuft über das Fachagent-Backend <strong>auf deutschen Servern</strong>. Der WordPress-Betreiber hat keine zusätzliche Datenschutz-Verantwortung durch das Plugin, die über die normale Chatbot-Nutzung hinausgeht.</p>
<p>Du kannst <a href="https://fachagent.com/auth/register">Fachagent ab sofort 14 Tage kostenlos testen</a>. Eine Registrierung reicht völlig aus und erfordert <strong>keine Zahlungsmethode</strong>.</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/fachagent-dsgvo-konformer-ki-chatbot/">Fachagent als DSGVO-konformer KI-Chatbot für KMU</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Kritische Sicherheitslücke in Claude Cowork entdeckt</title>
		<link>https://elsengrc.com/journal/news/kritische-sicherheitsluecke-in-claude-cowork-entdeckt/</link>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Mon, 26 Jan 2026 21:37:08 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[Cowork]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[KI-Cyberangriff]]></category>
		<category><![CDATA[KI-Risiken]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1178</guid>

					<description><![CDATA[<p>Executive Summary: Sicherheitslücke in Claude Cowork &#8211; Datei-Diebstahl via Prompt Injection? Nur wenige Tage nach dem Start von Claude Cowork haben Sicherheitsforscher eine kritische Schwachstelle ermittelt: Angreifer können in scheinbar...</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/kritische-sicherheitsluecke-in-claude-cowork-entdeckt/">Kritische Sicherheitslücke in Claude Cowork entdeckt</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - Sicherheitslücke in Claude Cowork" /></p>
<h3>Executive Summary: Sicherheitslücke in Claude Cowork &#8211; Datei-Diebstahl via Prompt Injection?</h3>
<p>Nur wenige Tage nach dem Start von <strong>Claude Cowork</strong> haben Sicherheitsforscher eine <strong>kritische Schwachstelle</strong> ermittelt: Angreifer können in scheinbar harmlosen Dokumenten wie E-Mails, PDFs und anderen Files<strong>unsichtbare Anweisungen</strong> verstecken, die den KI-Agenten wie Claude&#8217;s &#8222;Cowork&#8220; dazu bringen, <strong>vertrauliche Dateien aus verbundenen Ordnern des lokalen Systems zu exfiltrieren</strong> &#8211; und zwar <strong>ohne menschliche Genehmigung</strong>. Der Angriff nutzt eine bekannte Isolationsschwäche in der containerisierten Codeausführungsumgebung von Claude, die laut Berichten zwar bekannt, aber bislang nicht aktiv geschlossen wurde. Für <strong>Governance, Risk und Compliance</strong> ist das ein klassischer „Reality Check“: Sobald KI-Agenten Zugriff auf lokale Dateisysteme, Integrationen oder Unternehmensdaten erhalten, wird Prompt Injection nicht zu einem theoretischen Risiko, sondern zu einem <strong>konkreten Datenabfluss-Szenario</strong> mit potentiell erheblichen Folgeschäden.</p>
</div>
<p>Der Fall zeigt sehr plastisch, warum „agentische“ KI-Systeme (&#8222;agentic ai&#8220;, also KI, die nicht nur antwortet, sondern Aktionen ausführt) eine neue Risikoklasse darstellen. Die Kernfrage für Organisationen lautet nicht mehr: „Ist das Tool nützlich?“, sondern:  <strong>Welche Daten dürfen überhaupt in Reichweite eines KI-Agenten liegen &#8211; und wie verhindern wir, dass der Agent auf manipulierte Anweisungen reagiert?</strong></p>
<h3>Was ist Claude Cowork und warum ist die Sicherheitslücke in Claude Cowork so kritisch?</h3>
<p><a href="https://claude.com/blog/cowork-research-preview">Claude Cowork</a> ist eine vollständig durch die von <a href="https://www.anthropic.com/news/introducing-claude">Anthropic entwickelte KI Claude</a> automatisiert geschriebene Agenten-Software, die als produktiver KI-Begleiter gedacht ist, der mit der (lokalen) Arbeitsumgebung interagieren kann &#8211; z. B. über verbundene Ordner, Browser-Aktionen oder Integrationen. Wir sprechen also über eine <strong>direkte Integration von KI in die Systemumgebung</strong> beispielsweise von MacOS.</p>
<p>Genau diese Nähe zur &#8222;echten&#8220; Datenquellen macht den Unterschied zu einem normalen Chatbot wie <a href="https://chatgpt.com">ChatGPT</a> oder Google Gemini. Denn anders als in diesen Chat-basierten LLMs müssen in Claude Cowork keine Dateien hoch- und wieder runtergeladen werden, um eine aktive (Mit-) Arbeit der KI zu ermöglichen, sondern dieses geschiehet direkt im Dateisystem des lokalen Rechners. Claude nutzt dabei das bereits aus Claude Code bekannte &#8222;Terminal System&#8220;, das insbesondere bei Softwareentwickler sehr beliebt ist und erheblichen Vorteile gegenüber der Entwicklung beispielsweie mit OpenAIs &#8222;Codex&#8220; beitet.</p>
<p>Wenn ein Agent Dateien lesen und Aktionen ausführen kann, wird jede Eingabe- oder Dokumentquelle zu einer potenziellen Angriffsfläche. <a href="https://www.heise.de/news/Sicherheitsluecke-in-Claude-Cowork-So-verschaffen-sich-Hacker-unbemerkt-Zugriff-11142353.html">heise</a> und <a href="https://t3n.de/news/sicherheitsluecke-in-claude-cowork-so-verschaffen-sich-hacker-unbemerkt-zugriff-1725440/">t3n</a> sprechen in diesem Zusammenhang von Dateiexfiltration über<strong> indirekte Prompt-Injektionen</strong> &#8211; also versteckte Befehle, die nicht in der sichtbaren Benutzeranweisung stehen, sondern „im Hintergrund“ in einem Dokument platziert werden. Klassischen Beispiele sind schwarze Schriften auf schwarzem Hintergrund oder weiße Schriften auf weißem Hintergrund, die über eingelesene PDF-, Word- oder auch HTML-Dokumente direkt in den Systemprompt wandern und unauthorisierte Aktionen durchführen könnten.</p>
<h3>So läuft der Angriff ab: „Harmloses Dokument“ + versteckte Anweisung = Datei-Upload</h3>
<p>Die von Sicherheitsforschern beschriebene Angriffskette ist aus Angreifersicht unangenehm simpel: Ein Nutzer verbindet Claude Cowork mit einem lokalen Ordner, in dem auch vertrauliche Inhalte liegen (z.B. Fotos, andere Dokumente, Source Code). Danach wird eine Datei (z. B. eine Word-Datei) in Cowork geladen, die wie ein nützliches Hilfsdokument wirkt &#8211; in der Praxis werden solche <strong>„Prompt- oder Skill-Dateien“</strong> gerne online geteilt, was die Eintrittswahrscheinlichkeit erhöht. In das Dokument ist jedoch eine Anweisung eingebettet, die für Menschen praktisch unsichtbar ist, etwa durch sehr kleine Schrift und Farb-/Layout-Tricks. <a href="https://the-decoder.com/claude-cowork-hit-with-file-stealing-prompt-injection-days-after-anthropics-launch/">The Decoder</a> beschreibt das konkret als<strong> 1-Punkt-Schrift</strong>, weiß auf weiß, mit minimalem Zeilenabstand.</p>
<p>Wenn der Nutzer Cowork dann bittet, die vertraulichen Daten „auf Grundlage“ dieses Dokuments zu analysieren, übernimmt die versteckte Anweisung die Kontrolle. Laut <a href="https://www.heise.de/news/Sicherheitsluecke-in-Claude-Cowork-So-verschaffen-sich-Hacker-unbemerkt-Zugriff-11142353.html">heise</a> und <a href="https://t3n.de/news/sicherheitsluecke-in-claude-cowork-so-verschaffen-sich-hacker-unbemerkt-zugriff-1725440/">t3n</a> wird der Agent dabei u. a. angewiesen, einen <strong>curl</strong>-Befehl auszuführen und eine Datei über die <strong>Anthropic File-Upload-API</strong> hochzuladen &#8211; inklusive Übermittlung eines API-Schlüssels der Angreifer, sodass die Datei direkt auf deren Konto landet. Besonders relevant: <strong>Während dieses Ablaufs ist keine manuelle Freigabe erforderlich</strong>.</p>
<h3>Warum eine Sicherheitslücke bei Claude Cowork so schwer zu erkennen ist</h3>
<p>Ein zentraler Punkt ist, dass der <strong>Datenabfluss nicht „wie Malware“ wirkt</strong>. Der Upload passiert über legitime, für das Produkt notwendige <strong>Schnittstellen</strong>. Laut Berichten bleibt der <strong>Angriff oft unentdeckt</strong>, weil die Anthropic-API als vertrauenswürdig gilt und daher nicht automatisch als verdächtiger Datenabfluss auffällt.<br />
<a href="https://www.heise.de/news/Sicherheitsluecke-in-Claude-Cowork-So-verschaffen-sich-Hacker-unbemerkt-Zugriff-11142353.html">heise</a> und <a href="https://t3n.de/news/sicherheitsluecke-in-claude-cowork-so-verschaffen-sich-hacker-unbemerkt-zugriff-1725440/">t3n</a> greifen zudem die Kritik auf, dass „Achtet auf verdächtige Aktionen“ als Warnhinweis für normale Nutzer nicht realistisch ist &#8211; Prompt Injection ist für viele Anwender schlicht nicht zuverlässig erkennbar.</p>
<h3>GRC-Relevanz: Was bedeutet das für Governance, Risk und Compliance?</h3>
<p>Auch für diesen sicherheitsrelevanten Case mit Claude Cowork nehme ich eine Einordnung in den Kontext von GRC vor, damit IT-Leader, IT-Spezialisten und Berater auf die neuen Bedrohungen durch agentische Systeme in Zukunft besser reagieren können:</p>
<p><strong>Governance:</strong> KI-Agenten mit Datei- oder Integrationszugriff gehören nicht in die „Tool-Ecke“ einzelner Teams. Es braucht klare <strong>Policies</strong>: Welche Verzeichnisse dürfen angebunden werden? Welche Datenklassen sind tabu (Kundendaten, Verträge, HR, Quellcode, Finanzzahlen)? Welche Tools und Schnittstellen sind freigegeben &#8211; und mit welchen Settings?</p>
<p><strong>Risk:</strong> Prompt Injection ist hier kein abstraktes Modellrisiko, sondern ein <strong>Datenabfluss-Risiko</strong> durch nicht vertrauenswürdige Inputs (Dokumente, Webseiten, geteilte „Skills“). Das Thema gehört klar in das Cyber-Risikomanagement: Eintrittswahrscheinlichkeit für Schäden steigt, sobald Agenten in reale Workflows integriert werden. Schadenshöhe ist potenziell hoch, weil es um vertrauliche Dateien geht &#8211; und diese könne personenbezogene, sensible Daten enthalten ebenso wie schützenswerte Geschäfts- und Kundendaten.</p>
<p><strong>Compliance:</strong> Sobald personenbezogene Daten oder vertrauliche Unternehmensinformationen betroffen sein können, treffen Datenschutz, Geheimhaltung, Vertrags- und Sicherheitsanforderungen aufeinander. Organisationen müssen nachweisen können, dass sie angemessene TOMs etabliert haben &#8211; und dass KI-Tools nicht „ungeprüft“ Zugriff auf sensible Daten erhalten. Der Fall ist zudem ein gutes Beispiel für „<a href="https://elsengrc.com/wiki/shadow-ai/">Shadow AI</a>“: Wenn Mitarbeitende solche Agenten eigenständig anbinden, entstehen Compliance-Risiken außerhalb formaler Kontrollen.</p>
<h3>Pragmatische Konsequenzen: Was Unternehmen jetzt tun sollten</h3>
<p>Wer agentische KI-Tools testet oder unmittelbar einführen will, sollte kurzfristig <strong>drei Leitplanken</strong> setzen:</p>
<ol>
<li><strong>Scope begrenzen</strong> (nur nicht-sensitive Testdaten, keine lokalen Ordner mit sensiblen Kundendaten).</li>
<li><strong>Input-Hygiene</strong> (keine fremden „Skills“, Prompt-Dateien oder Dokumente aus unklaren Quellen in produktive Workflows).</li>
<li><strong>Kontrollen einziehen</strong> (Monitoring, DLP (Data Loss Prevention)/Upload-Kontrollen, klare Freigabeprozesse für Integrationen und Datei-Zugriffe). Diese Maßnahmen ersetzen keine Produkt-Fixes &#8211; reduzieren aber das Risiko, bis Anbieter wirksame Schutzmechanismen liefern.</li>
</ol>
<h3>Beratung zur sicheren KI-Nutzung im Kontext Cybersecurity durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen, SaaS-Anbieter und Behörden dabei, KI-Agenten und KI-Integrationen <strong>GRC-sicher</strong> zu betreiben &#8211; insbesondere dort, wo Datei-, System- oder Integrationszugriffe ins Spiel kommen. Dazu gehören Use-Case-Assessments, Policy- und Governance-Design (inkl. Datenklassen/Scopes), Risikoanalysen zu Prompt-Injection-Szenarien sowie die Ableitung pragmatischer TOMs (Freigaben, Monitoring, technische Guardrails). Ziel ist eine KI-Nutzung, die Produktivität ermöglicht, ohne unkontrollierte Datenabflüsse und Haftungsrisiken zu provozieren. Vereinbaren Sie gerne ein <a href="https://elsengrc.com/contact/">unverbindliches Beratungsgespräch</a>.</p>
<hr />
<p>Foto: <a href="https://claude.com/blog/cowork-research-preview">© Claude.com</a></p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.heise.de/news/Sicherheitsluecke-in-Claude-Cowork-So-verschaffen-sich-Hacker-unbemerkt-Zugriff-11142353.html">Sicherheitslücke in Claude Cowork: So verschaffen sich Hacker unbemerkt Zugriff &#8211; heise.de</a></li>
<li><a href="https://t3n.de/news/sicherheitsluecke-in-claude-cowork-so-verschaffen-sich-hacker-unbemerkt-zugriff-1725440/">Sicherheitslücke in Claude Cowork &#8211; t3n.de</a></li>
<li><a href="https://the-decoder.com/claude-cowork-hit-with-file-stealing-prompt-injection-days-after-anthropics-launch/">Claude Cowork hit with file-stealing prompt injection &#8211; The Decoder</a></li>
</ul>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/kritische-sicherheitsluecke-in-claude-cowork-entdeckt/">Kritische Sicherheitslücke in Claude Cowork entdeckt</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>KI Governance: Erklärung, Aufgaben und Prinzipien</title>
		<link>https://elsengrc.com/wiki/g/ki-governance/</link>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Fri, 16 Jan 2026 18:25:02 +0000</pubDate>
				<category><![CDATA[Governance]]></category>
		<category><![CDATA[Wiki]]></category>
		<category><![CDATA[KI Governance]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1141</guid>

					<description><![CDATA[<p>KI Governance ist ein zentraler Bestandteil moderner Governance-, Risk- und Compliance-Strukturen (GRC) und bezeichnet den organisatorischen, rechtlichen und technischen Ordnungsrahmen (oder die &#8222;Leitplanken&#8220;), mit dem Unternehmen und Organisationen den Einsatz...</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/g/ki-governance/">KI Governance: Erklärung, Aufgaben und Prinzipien</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>KI Governance</strong> ist ein zentraler Bestandteil moderner Governance-, Risk- und Compliance-Strukturen (GRC) und bezeichnet den organisatorischen, rechtlichen und technischen <strong>Ordnungsrahmen</strong> (oder die &#8222;Leitplanken&#8220;), mit dem Unternehmen und Organisationen den <strong>Einsatz von Künstlicher Intelligenz steuern, überwachen und verantworten</strong>. Ziel ist es, KI-Systeme sicher, rechtskonform, transparent und im Einklang mit unternehmerischen sowie regulatorischen Anforderungen einzusetzen, wie beispielsweise dem <a href="https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/">EU AI Act</a>, <a href="https://elsengrc.com/wiki/c/nis-2-richtlinie/">NIS-2</a> oder anderen Regel- und Rahmenwerken, die für eine Unternehmensführung im Kontext des KI-Einsatzes zu berücksichtigen sind. Allerdings ist der Begriff der KI Governance nicht einheitlich definiert &#8211; aus diesem Grund liefern wir mit diesem GRC-Wiki Beitrag eine allgemeingültig Definition des Begriffes und stellen die wichtigsten Aufgaben von &#8222;KIG&#8220; vor.</p>
<h2>Die wichtigsten Aufgaben von KI Governance</h2>
<p><strong>KI Governance definiert im Allgemeinen</strong>, wie Künstliche Intelligenz (KI) im Unternehmen eingeführt, genutzt, überwacht und weiterentwickelt wird. Sie legt nicht nur fest, welche KI-Systeme (z.B. Google Gemini, ChatGPT, Copilot oder ähnliche LLMs) eingesetzt werden dürfen, auf welchen Daten sie basieren bzw. zugreifen dürfen, wer Entscheidungen freigibt (Stichwort: &#8222;Human in the Loop&#8220;) und wie <a href="https://elsengrc.com/ki-risiko-check/">Risiken durch den KI-Einsatz</a> bewertet und kontrolliert werden.</p>
<p>Zu den <strong>zentralen und wichtigsten Aufgaben der KI Governance</strong> gehören beispielsweise</p>
<ul>
<li>die <strong>Entwicklung verbindlicher KI-Richtlinien</strong>,</li>
<li>die klare <strong>Zuordnung von Rollen und Verantwortlichkeiten</strong>,</li>
<li>die <strong>Dokumentation</strong> von Modellen und Einsatzkontexten sowie</li>
<li>die <strong>Bewertung</strong> rechtlicher, ethischer und technischer Risiken.</li>
</ul>
<p>Darüber hinaus umfasst KI Governance auch die kontinuierliche<strong> Überwachung bestehender KI-Anwendungen und KI-Integrationen in Prozesse und Produkte eines Unternehmens</strong> und deren Anpassung an neue regulatorische oder organisatorische Anforderungen. Damit ist KIG nicht nur eine Aufgabe der Geschäftsführung oder Unternehmensleitung, sondern auch in Fachabteilungen ein wichtiger und elementarer Teil der Prozesskette.</p>
<h2>Kernprinzipien der KI Governance</h2>
<p>KI Governance folgt klaren <strong>Steuerungsprinzipien</strong>, die den verantwortungsvollen Einsatz von KI im Unternehmen sicherstellen. Zentrales Element ist die <strong>Verantwortlichkeit</strong>: Zuständigkeiten, Entscheidungswege und Kontrollmechanismen müssen eindeutig definiert sein &#8211; das ist, wie oben beschrieben, Aufgabe einer klaren <strong>KI Governance Richtlinie</strong>. Darauf aufbauend sorgt <strong>Transparenz</strong> (z.B. durch Informations- und Dokumentationsprozesse) dafür, dass der Einsatz, die Funktionsweise und der Zweck von (implementierten) KI-Systemen nachvollziehbar dokumentiert sind.</p>
<p>Ein weiteres Grundprinzip ist der <strong>risikobasierte Ansatz</strong>, bei dem KI-Anwendungen abhängig von ihrem Einsatzkontext und ihrer potenziellen Wirkung unterschiedlich bewertet und gesteuert werden. Eine gute Orientierung bietet hier bereits das <a href="https://elsengrc.com/wiki/g/4-risikostufen-eu-ai-act-definition-und-bedeutung/">4-Stufen Risiko-Modell</a> zur Risikobewertung nach EU AI Act. Ergänzend dazu stellt <strong>Compliance-by-Design</strong> sicher, dass <strong>rechtliche und regulatorische Anforderungen</strong> bereits <strong>bei Einführung und Nutzung von KI berücksichtigt</strong> werden. Diese Prinzipien werden nicht statisch verstanden, sondern im Rahmen einer kontinuierlichen Überprüfung regelmäßig angepasst und weiterentwickelt.</p>
<h2>Einordnung im Kontext von Governance, Risk und Compliance</h2>
<p>In der <strong>GRC-Beratung</strong> ist KI Governance ein <strong>zentrales Bindeglied</strong> zwischen Governance, Risk und Compliance. Sie <strong>übersetzt regulatorische Anforderungen</strong> und interne Leitlinien <strong>in konkrete Steuerungs- und Kontrollmechanismen</strong> für KI-Systeme.</p>
<ul>
<li>Aus <strong>Governance-Sicht</strong> geht es um strategische Steuerung, Entscheidungsprozesse und unternehmensweite Leitlinien für den KI-Einsatz.</li>
<li>Aus <strong>Risk-Sicht</strong> stehen Risiken wie Fehlentscheidungen, Bias, Haftungsfragen, Reputationsschäden oder die Verhinderung von <a href="https://elsengrc.com/wiki/shadow-ai/">Shadow AI</a> im Fokus.</li>
<li>Aus <strong>Compliance-Sicht</strong> stellt KI Governance sicher, dass gesetzliche Vorgaben, insbesondere <a href="https://elsengrc.com/wiki/c/dsgvo/">DSGVO</a>, <a href="https://elsengrc.com/journal/entscheidungshilfe-fuer-wen-gilt-der-eu-ai-act/">EU AI Act</a> und angrenzende IT- und Sicherheitsanforderungen, systematisch eingehalten und nachweisbar umgesetzt werden.</li>
</ul>
<p>KI Governance macht KI damit zu einem steuerbaren und <strong>prüfbaren Bestandteil</strong> der unternehmerischen Gesamtsteuerung, die sich nicht nur auf das Level der Geschäftsführung beschränkt!</p>
<h2>Praxisrelevanz für Unternehmen</h2>
<p>KI wird zunehmend in produktiven Prozessen eingesetzt, etwa bei Entscheidungsunterstützung, Automatisierung oder generativer KI. Ohne klare KI Governance entstehen schnell unkontrollierte Nutzungen, Datenschutzrisiken und regulatorische Lücken. Unternehmen benötigen daher <strong>verbindliche Regeln für den KI-Einsatz</strong>, klare Freigabeprozesse, Transparenz über genutzte Tools und Modelle sowie eine laufende <strong>Risikoüberwachung </strong>wie unseren <a href="https://elsengrc.com/ki-risiko-check/">KI Risiko Check</a><strong>.</strong></p>
<h2>KI Governance Beratung durch Elsen GRC</h2>
<p>Elsen GRC unterstützt Unternehmen beim Aufbau und der Weiterentwicklung einer praxistauglichen KI Governance. Zu unserer Beratungsleistung gehören die Analyse bestehender KI-Nutzungen, die Entwicklung klarer KI-Richtlinien und Rollenmodelle, die Bewertung von Risiken und Compliance-Anforderungen sowie die Integration von KI Governance in bestehende GRC-Strukturen. <strong>Ziel ist es, KI rechtssicher, nachvollziehbar und wirtschaftlich sinnvoll einzusetzen und gleichzeitig Risiken wie Shadow AI oder regulatorische Verstöße zu vermeiden.</strong> Klingt passend? Dann vereinbaren Sie gerne eine unverbindliche <a href="https://elsengrc.com/contact/">KI Governance Erstberatung</a>.</p>
<hr />
<p>Bild: © Meritt Thomas &#8211; Unsplash.com</p>
<p>Quellen und Verweise:</p>
<ul>
<li>Europäische Kommission: <a href="https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai">EU AI Act</a></li>
<li>OECD: <a href="https://www.oecd.org/en/topics/policy-issues/artificial-intelligence.html">AI Governance and Risk Management</a></li>
<li>ENISA: <a href="https://www.enisa.europa.eu/publications/building-effective-governance-frameworks-for-the-implementation-of-national-cybersecurity-strategies">Cybersecurity and Governance Frameworks</a></li>
</ul>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/g/ki-governance/">KI Governance: Erklärung, Aufgaben und Prinzipien</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>NIS-2 Registrierung startet &#8211; was Unternehmen jetzt wissen müssen</title>
		<link>https://elsengrc.com/journal/news/nis-2-registrierung-startet/</link>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Tue, 13 Jan 2026 23:03:48 +0000</pubDate>
				<category><![CDATA[GRC Journal]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[NIS-2 Richtlinie]]></category>
		<category><![CDATA[NIS2]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1130</guid>

					<description><![CDATA[<p>Executive Summary: NIS-2 Registrierung startet jetzt beim BSI &#8211; was Unternehmen jetzt wissen müssen Mit dem Start der NIS-2 Registrierung beginnt für viele Unternehmen und Organisationen eine neue Phase verpflichtender...</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/nis-2-registrierung-startet/">NIS-2 Registrierung startet &#8211; was Unternehmen jetzt wissen müssen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - NIS-2 Registrierung" /></p>
<h3>Executive Summary: NIS-2 Registrierung startet jetzt beim BSI &#8211; was Unternehmen jetzt wissen müssen</h3>
<p>Mit dem Start der <strong>NIS-2 Registrierung</strong> beginnt für viele Unternehmen und Organisationen eine neue Phase verpflichtender <strong>Cybersicherheits-Compliance.</strong> Die europäische <a href="https://elsengrc.com/wiki/c/nis-2-richtlinie/">NIS-2-Richtlinie</a>  erweitert den Kreis der betroffenen Einrichtungen deutlich und verpflichtet diese, sich aktiv zu identifizieren, Sicherheitsmaßnahmen umzusetzen und Vorfälle zu melden. Auch wenn die nationale Umsetzung in Deutschland noch nicht vollständig abgeschlossen ist, laufen die <strong>Vorbereitungen für die NIS-2 Registrierung beim <a href="https://www.bsi.bund.de/DE/Themen/Regulierte-Wirtschaft/NIS-2-regulierte-Unternehmen/NIS-2-Starterpaket/nis-2-start_node.html">BSI</a> bereits auf Hochtouren</strong>. Unternehmen sollten jetzt klären, ob sie betroffen sind, ab wann Pflichten greifen und wo die Registrierung erfolgen wird &#8211; denn eine automatische Benachrichtigung ist nicht vorgesehen.</p>
</div>
<p>Die <strong>NIS-2 Registrierung</strong> ist kein rein formaler Akt, sondern der sichtbare Einstieg in ein umfassendes Cybersicherheits- und Aufsichtsregime. Sie markiert den Punkt, an dem sich Organisationen gegenüber Behörden erklären müssen, ganz im Sinne von &#8222;Wir sind von NIS 2 betroffen  &#8211; und wir haben unsere Risiken und Schutzmaßnahmen im Griff!&#8220;</p>
<h3>Was ist NIS-2 überhaupt? Kurze Einordnung</h3>
<p>Die <strong>NIS-2-Richtlinie</strong> (Network and Information Security Directive 2) ist eine EU-weite Vorgabe zur Stärkung der Cyber-Resilienz. Sie ersetzt die bisherige <a href="https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:32016L1148">NIS-Richtlinie</a> und reagiert auf die zunehmende Bedrohung durch Cyberangriffe, Lieferkettenrisiken und systemische IT-Abhängigkeiten &#8211; auch im Kontext von KI.</p>
<p>Im Kern verpflichtet NIS 2 betroffene Organisationen dazu, <strong>angemessene technische und organisatorische Maßnahmen </strong>(sog. TOMs) zur IT- und Informationssicherheit umzusetzen, Sicherheitsvorfälle zeitnah zu melden und die Verantwortung klar auf der Leitungsebene zu verankern. Cybersicherheit wird damit ausdrücklich zur Management- und <strong>Governance-Aufgabe</strong>.</p>
<h3>Ab wann gilt NIS-2 &#8211; und was bedeutet das für die Registrierung?</h3>
<p>Die NIS-2-Richtlinie ist auf EU-Ebene bereits in Kraft getreten. Die Mitgliedstaaten müssen sie in nationales Recht überführen. In Deutschland erfolgt dies über das <strong>NIS-2-Umsetzungs- und Cybersicherheitsstärkungsgesetz</strong>, das sich aktuell noch im Gesetzgebungsverfahren befindet.</p>
<p>Unabhängig davon bereiten die zuständigen Behörden, insbesondere das <strong>Bundesamt für Sicherheit in der Informationstechnik (BSI)</strong>, bereits die <strong>NIS-2 Registrierung</strong> vor. Geplant ist ein zentrales <a href="https://www.bsi.bund.de/DE/Themen/Regulierte-Wirtschaft/NIS-2-regulierte-Unternehmen/NIS-2-Anleitung-Registrierung/Anleitung-Registrierung_node.html">Registrierungsportal</a>, über das betroffene Unternehmen ihre Zugehörigkeit anzeigen müssen. Die Registrierung ist damit eine <strong>aktive Pflicht</strong>: Unternehmen müssen selbst prüfen, ob sie unter NIS 2 fallen, und sich fristgerecht registrieren.</p>
<h3>Für wen gilt die NIS-2 Registrierung und wer muss sich registrieren?</h3>
<p>Die NIS-2-Richtlinie erweitert den Anwendungsbereich erheblich. Betroffen sind nicht mehr nur klassische Kritische Infrastrukturen, sondern auch viele mittelständische Unternehmen und KMU. Maßgeblich sind dabei vor allem <strong>Branche, Unternehmensgröße und Funktion</strong>.</p>
<p>Erfasst werden unter anderem Unternehmen aus den Bereichen Energie, Verkehr, Wasser, Gesundheitswesen, digitale Infrastruktur, IT-Dienstleistungen, Cloud- und Rechenzentrumsbetrieb, Industrie, Entsorgung sowie Teile der öffentlichen Verwaltung. Die Richtlinie unterscheidet zwischen <strong>wesentlichen Einrichtungen</strong> und <strong>wichtigen Einrichtungen</strong>. Beide Gruppen unterliegen der NIS-2 Registrierung und verbindlichen Sicherheitsanforderungen &#8211; mit abgestufter Aufsicht und Sanktionierung.</p>
<p><span style="text-decoration: underline;">NIS-2 gilt also insbesondere für:</span></p>
<ul>
<li><strong>Unternehmen ab 50 Mitarbeitenden oder 10 Mio. € Jahresumsatz</strong>, sofern sie in einem erfassten Sektor tätig sind</li>
<li><strong>Kritische und wichtige Branchen</strong> wie Energie, Verkehr, Gesundheitswesen, Wasser, digitale Infrastruktur, IT- und Cloud-Dienstleister</li>
<li><strong>Unternehmen mit systemischer Bedeutung</strong>, z. B. Managed Service Provider, Rechenzentren, SaaS- und Plattformanbieter</li>
<li><strong>Öffentliche Einrichtungen und Behörden</strong>, soweit sie unter den erweiterten Anwendungsbereich der Richtlinie fallen</li>
</ul>
<h3>Wo startet die Registrierung für NIS-2 beim BSI?</h3>
<p>Die <strong>NIS-2 Registrierung</strong> soll in Deutschland zentral über ein <strong>BSI-Portal</strong> erfolgen (<a href="https://www.bsi.bund.de/DE/Service-Navi/Presse/Pressemitteilungen/Presse2026/260601_NIS2_BSI-Portal.html">Link zur BSI-Pressemitteilung</a>). Dort müssen Unternehmen künftig Angaben zu ihrer Organisation, Branche und Rolle machen. Auf dieser Basis erfolgt die Zuordnung zum NIS-2-Regime und die weitere aufsichtsrechtliche Betreuung.</p>
<p>Mit der Registrierung gehen weitere Pflichten einher: die Benennung von Ansprechpartnern, die Vorbereitung auf Meldepflichten bei Sicherheitsvorfällen sowie die Nachweisbarkeit von Sicherheitsmaßnahmen. Die Registrierung ist damit der erste formale Schritt in eine laufende Compliance-Beziehung mit der Aufsichtsbehörde.</p>
<div id="attachment_1136" style="width: 2570px" class="wp-caption alignnone"><img decoding="async" aria-describedby="caption-attachment-1136" class="size-full wp-image-1136" src="https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-scaled.jpg" alt="NIS-2 Registrierung beim BSI" width="2560" height="957" srcset="https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-scaled.jpg 2560w, https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-300x112.jpg 300w, https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-1024x383.jpg 1024w, https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-768x287.jpg 768w, https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-1536x574.jpg 1536w, https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-2048x765.jpg 2048w" sizes="(max-width: 2560px) 100vw, 2560px" /><p id="caption-attachment-1136" class="wp-caption-text">Die NIS-2 Registrierung ist beim BSI über das BSI-Portal möglich</p></div>
<h3>Bedeutung der NIS-2 Registrierung für Governance, Risk und Compliance</h3>
<p>Aus GRC-Sicht stellt die <strong>NIS-2 Registrierung</strong> den Startpunkt für ein dauerhaftes Cybersicherheits-Management dar. Entsprechende <strong>Governance-Strukturen</strong> müssen sicherstellen, dass die Geschäftsleitung informiert, eingebunden und verantwortlich ist. <strong>Risiko-Management</strong> muss Cyberrisiken systematisch erfassen, priorisieren und regelmäßig überprüfen &#8211; auch mit Blick auf Dienstleister und Lieferketten.</p>
<p>Für die <strong>Compliance</strong> bedeutet NIS 2, dass Sicherheitsmaßnahmen, Schulungen, Risikoanalysen und Incident-Prozesse nicht nur existieren, sondern dokumentiert und prüfbar sein müssen. Die Registrierung macht Organisationen sichtbar &#8211; und damit auch überprüfbar. Wer hier also noch keine passenden Risk- und Compliance-Management Prozesse etabliert hat, sollte sich spätestens nach der Registrierung sputen!</p>
<h3>Unterstützung bei der Registrierung durch Elsen GRC</h3>
<p>Elsen GRC begleitet Unternehmen und öffentliche Stellen bei der <strong>NIS-2 Registrierung</strong> und der anschließenden Umsetzung der Anforderungen. Dazu gehören die Prüfung der Betroffenheit, die strukturierte Vorbereitung auf das BSI-Portal, der Aufbau oder Abgleich von Governance- und Risiko-Strukturen sowie die Integration von NIS-2-Pflichten in bestehende Compliance-Systeme.</p>
<p>Ziel ist es, die <strong>Registrierung</strong> nicht als isolierte Pflicht zu behandeln, sondern als<strong> Einstieg in eine belastbare und zukunftsfähige Cyber-Governance</strong>. Gerne unterstütze ich Sie dabei im Rahmen eines <a href="https://elsengrc.com/contact/">unverbindlichen Erstgesprächs</a>.</p>
<hr />
<p>Foto: Joshua Woroniecki &#8211; Unsplash.com</p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.digitalbusiness-magazin.de/nis2-registrierung-bsi-portal-a-fc4f880ec4b2005d907b4f4f5e3e979f/">NIS-2 Registrierung und BSI-Portal &#8211; Digital Business Magazin</a></li>
<li><a href="https://www.ihk.de/erfurt/service/digitalisierung-it/cybersicherheitsrecht-nis-2-umsetzungsgesetz-6834644">NIS-2 Umsetzungsgesetz &#8211; IHK Erfurt</a></li>
<li><a href="https://digital-strategy.ec.europa.eu/de/policies/nis2-directive">NIS-2-Richtlinie &#8211; Europäische Kommission</a></li>
<li><a href="https://www.all-about-security.de/cybersicherheitsrecht-nis-2-startet-morgen/">NIS 2 startet &#8211; All-About-Security</a></li>
</ul>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/nis-2-registrierung-startet/">NIS-2 Registrierung startet &#8211; was Unternehmen jetzt wissen müssen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>RSL Standard für KI-Suche: Neuer Ordnungsrahmen für Internet-Inhalte</title>
		<link>https://elsengrc.com/journal/news/rsl-standard-fuer-ki-suche/</link>
					<comments>https://elsengrc.com/journal/news/rsl-standard-fuer-ki-suche/#respond</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Fri, 19 Dec 2025 21:13:10 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[KI-Suche]]></category>
		<category><![CDATA[RSL]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1110</guid>

					<description><![CDATA[<p>Executive Summary: RSL Standard für KI-Suche Mit RSL 1.0 (&#8222;Really Simple Licensing&#8220; oder auch &#8222;Responsible Search Language&#8220;) entsteht erstmals ein technischer Standard, der nicht mehr nur regelt, ob Inhalte gecrawlt...</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/rsl-standard-fuer-ki-suche/">RSL Standard für KI-Suche: Neuer Ordnungsrahmen für Internet-Inhalte</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - RSL Standard für KI-Suche" /></p>
<h3>Executive Summary: RSL Standard für KI-Suche</h3>
<p>Mit <strong>RSL 1.0 (&#8222;Really Simple Licensing&#8220; </strong>oder auch<strong> &#8222;Responsible Search Language&#8220;)</strong> entsteht erstmals ein technischer Standard, der nicht mehr nur regelt, <em>ob</em> Inhalte gecrawlt werden dürfen, sondern <strong>wie und zu welchem Zweck Inhalte von KI-Systemen genutzt werden dürfen</strong>. Der <strong>RSL Standard für KI-Suche</strong> adressiert damit das bisherige Internet-Governance Vakuum: Die robots.txt als Crawler-Steuerung ist für klassische Suchmaschinen wie Google gedacht, nicht für LLMs, KI-Suchsysteme und Answer Engines. RSL ermöglicht es Organisationen, maschinenlesbar festzulegen, ob Inhalte indexiert, zusammengefasst, in KI-Antworten verwendet oder für Trainings- und Finetuning-Zwecke der LLMs genutzt werden dürfen. Für CEOs, Tech Leads und Management markiert RSL einen Wendepunkt: Die Kontrolle über digitale Inhalte verschiebt sich von impliziter Duldung hin zu expliziter, strategischer Steuerung.</p>
</div>
<p>Der neue <strong>RSL Standard für KI-Suche</strong> ist mehr als nur technisches Detail. RSL ist ein neuer <strong>technischer Standard zur Steuerung der KI-basierten Nutzung von Web-Inhalten</strong>, aber kein Lizenzvertrag im rechtlichen Sinn. Er wird damit zu einem Instrument, mit dem Organisationen Verantwortung für die Positionierung ihrer Inhalte im wachsenden KI-Ökosystem.</p>
<h3>Warum der RSL Standard die robots.txt im KI-Zeitalter ersetzen wird</h3>
<p>Die mittlerweile &#8222;in die Tage gekommene&#8220; robots.txt kennt im Kern nur zwei Zustände: erlauben oder verbieten. Dieses binäre Modell funktioniert für klassische Webcrawler, versagt aber im Kontext moderner KI-Systeme. Ein einfaches Beispiel:</p>
<pre><code># robots.txt
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
</code></pre>
<p>Allen User-Agents ist es also erlaubt, die Verzeichnisse zu durchsuchen, mit Ausnahme des Verzeichnisses /wp-admin/, wobei /wp-admin/admin-ajax.php erlaubt ist. Einschränkungen lassen sich also granular festlegen.</p>
<p>LLMs und KI-Suchmaschinen nutzen Inhalte aber nicht nur zur Auffindbarkeit, sondern zur <strong>semantischen Verarbeitung</strong>: Sie extrahieren Wissen, erzeugen Zusammenfassungen, kombinieren Inhalte über Quellen hinweg und integrieren diese in direkte Antworten oder die eigenen Datenstrukturen und Modelle.</p>
<p>Genau hier setzt RSL an. Der <strong>Standard trennt erstmals sauber zwischen unterschiedlichen Verwendungszwecken von Inhalten</strong>. Damit reagiert er auf eine Realität, die viele Organisationen längst spüren: Inhalte werden heute nicht mehr nur „gefunden“, sondern automatisiert <strong>weiterverarbeitet</strong>. Ohne explizite Steuerung entsteht ein Kontrollverlust &#8211; technisch, rechtlich wie strategisch.</p>
<h3>Beispiel und Verwendung des RSL Standards für Websites</h3>
<p>Der RSL-Standard ermöglicht es Website-Betreibern, <strong>maschinenlesbar und zweckbezogen</strong> festzulegen, wie KI-Suchsysteme, Answer Engines und Crawler Inhalte verwenden dürfen. Anders als bei <strong>robots.txt</strong> geht es nicht nur um „zulassen“ oder „blockieren“, sondern um <strong>konkrete Nutzungsbedingungen</strong> wie Indexierung, KI-Zusammenfassungen oder Wiederverwendung, inklusive Lizenz- und <strong>Attributionspflichten</strong>.</p>
<p>Das folgende Beispiel zeigt eine bewusst offene Freigabe für die gesamte Website, gekoppelt an eine klare Bedingung: Nutzung ist erlaubt, aber <strong>nur mit Quellenangabe</strong> nach <a href="https://creativecommons.org/licenses/by/4.0/deed.de">CC BY 4.0</a>.</p>
<pre><code>&lt;rsl xmlns="https://rslstandard.org/rsl"&gt;
  &lt;content url="/"&gt;
    &lt;license&gt;
      &lt;permits type="usage"&gt;all&lt;/permits&gt;
      &lt;payment type="attribution"&gt;
        &lt;!-- Content available under CC attribution license --&gt;
        &lt;standard&gt;https://creativecommons.org/licenses/by/4.0/&lt;/standard&gt;
      &lt;/payment&gt;
    &lt;/license&gt;
  &lt;/content&gt;
&lt;/rsl&gt;
</code></pre>
<p><strong>Erklärung der RSL-Bestandteile:</strong></p>
<ul>
<li>Technisch bedeutet <code>&lt;content url="/"&gt;</code>, dass die Regel für den gesamten Webauftritt (Root und Unterseiten) gilt.</li>
<li>Mit <code>&lt;permits type="usage"&gt;all&lt;/permits&gt;</code> wird die Nutzung der Inhalte grundsätzlich erlaubt, also nicht nur das Crawlen, sondern je nach Implementierung auch die <strong>Weiterverarbeitung in KI-Suchen und KI-Antwortsystemen</strong>.</li>
<li>Der Block <code>&lt;payment type="attribution"&gt;</code> definiert die Gegenbedingung: Es ist <span style="text-decoration: underline;">keine</span> Bezahlung im monetären Sinne, sondern viel mehr eine <strong>Verpflichtung zur Attribution</strong>.</li>
<li>Über <code>&lt;standard&gt;</code> wird diese Pflicht an eine etablierte Lizenz gekoppelt, hier <strong>Creative Commons BY 4.0</strong>, was bedeutet: Inhalte dürfen genutzt und wiedergegeben werden, solange eine nachvollziehbare Quellenangabe erfolgt.</li>
</ul>
<p>Aus GRC-Sicht ist entscheidend, dass solche Freigaben eine bewusste <strong>Governance-Entscheidung</strong> sind: Sie <strong>erhöhen Reichweite und Auffindbarkeit</strong>, können aber auch <strong>Kontroll- und Verwertungsrisiken</strong> erhöhen, wenn Attribution praktisch nicht durchgesetzt oder überprüft wird. Das betrifft insbesondere Plattformen oder beispielsweise Organisationen mit Mediensammlungen oder Archiven, für die gesonderte Nutzungsbedingungen abgeschlossen wurden, die vor der Ausbreitung von KI-Systemen abgeschlossen wurden.</p>
<h3>Wie wird RSL verwendet und in Websites eingebunden?</h3>
<p>Die RSL Datei kann auf unterschiedliche Weisen in Websites eingebunden werden. In Kürze stellen wir hier eine weiterführende<strong> Anleitung für die Einbindung von RSL-Dateien</strong> bereit. In der Zusammenfassung:</p>
<ul>
<li><strong>RSL-Datei statisch bereitstellen:</strong> RSL als XML unter einer festen, öffentlichen URL veröffentlichen (z. B. /.well-known/license.xml oder /license.xml)</li>
<li><strong>RSL Discovery ermöglichen:</strong> In der robots.txt auf die RSL-Datei verweisen (RSL: https://…/license.xml), optional zusätzlich im HTML-Head verlinken (z.B. &lt;link rel=&#8220;rsl&#8220; type=&#8220;application/xml&#8220; href=&#8220;https://deinedomain.tld/.well-known/license.xml&#8220;&gt;</li>
<li><strong>Struktur sauber halten:</strong> Gültiges XML, korrekter Content-Type, stabile URL und http Status 200 sicherstellen</li>
<li><strong>Governance beachten</strong>: RSL-Regeln strategisch und nicht wahllos festlegen, dokumentieren und regelmäßig überprüfen</li>
</ul>
<p>Wichtig: RSL ist ein Signal, kein rechtlicher Zwang. Deshalb sollte der Standard auch so genutzt werden.</p>
<p>Auf unserer Agentur-Website haben wir einen ausführlichen Beitrag erstellt, der erklärt, wie man eine <a href="https://elsenmedia.com/rsl-datei-erstellen-und-in-website-einbinden/#">RSL-Datei in Websites und WordPress einbindet</a>.</p>
<h3>Was der RSL Standard für KI-Suche tatsächlich regelt</h3>
<p>Der <strong>RSL Standard für KI-Suche</strong> ist als deklaratives Regelwerk konzipiert, das KI-Systemen klare Nutzungsgrenzen signalisiert. Im Fokus steht nicht der einzelne Bot oder AI-Agent, sondern die Art der Nutzung von Inhalten. Organisationen können differenzieren, ob Inhalte etwa:</p>
<ul>
<li>für klassische <strong>Suchindizes</strong> genutzt werden dürfen,</li>
<li>in <strong>KI-generierten Antworten</strong> oder Zusammenfassungen erscheinen dürfen,</li>
<li>für <strong>Trainings- oder Finetuning-Zwecke</strong> ausgeschlossen sind,</li>
<li>nur unter bestimmten <strong>Bedingungen</strong> weiterverarbeitet werden dürfen.</li>
</ul>
<p>Damit entsteht erstmals eine <strong>technische Sprache</strong> für Content-Governance im KI-Kontext. Wichtig ist jedoch: RSL ist kein rechtlicher Zwangsmechanismus. Er entfaltet seine Wirkung nur dort, wo KI-Anbieter ihn respektieren. Genau hier beginnt die strategische Dimension für Management und Technologieverantwortliche.</p>
<h3>Strategische Auswirkungen für Unternehmen, Plattformen und Behörden</h3>
<p>Für Unternehmen mit wissensbasierten Geschäftsmodellen (z.B. Beratung, Medien, Software, Industrie, Forschung, Archivierung von Webinhalten) wird RSL 1.0 zu einem strategischen Steuerungsinstrument. Inhalte sind nicht mehr nur Marketing-Asset, sondern Trainings- und Wissensquelle für KI-Systeme Dritter. Wer hier keine klare Position bezieht, überlässt anderen die Wertschöpfung und verschenkt so wertvolles Potential für mehr Sichtbarkeit durch den RSL Standard!</p>
<p>Für Tech Leads bedeutet RSL zusätzlichen Abstimmungsbedarf zwischen Content, IT, Recht und Produkt. Es reicht nicht, den Standard technisch umzusetzen, entscheidend ist die vorgelagerte Frage: <strong>Welche Inhalte wollen wir bewusst für KI freigeben, und welche nicht?</strong></p>
<p>Behörden wiederum erhalten mit RSL ein Instrument, um <strong>Informationsangebote</strong> kontrolliert zugänglich zu machen, ohne dass amtliche Inhalte ungefiltert in KI-Antwortsystemen landen. Gerade im Kontext von Neutralität, Haftung und öffentlicher Kommunikation kann RSL helfen, klare digitale Leitplanken zu setzen.</p>
<h3>Bedeutung für Governance, Risk und Compliance</h3>
<p>Aus <strong>Governance-Sicht</strong> zwingt RSL Organisationen zu klaren Entscheidungen. Content-Freigaben für KI sind keine technische Detailfrage, sondern Management-Entscheidungen mit Auswirkungen auf IP, Reputation und Wettbewerbsfähigkeit.  Im <strong>Risiko-Management</strong> verschiebt sich der Fokus: Das Risiko liegt nicht mehr nur im unautorisierten Zugriff, sondern in der <strong>ungewollten semantischen Nutzung</strong> von Inhalten. RSL kann Risiken reduzieren, ersetzt aber keine übergeordnete KI- und Datenstrategie und schon gar nicht den Schutz sensibler Daten, die innerhalb eines Website-Ökosystems gespeichert sind.</p>
<p>Für die <strong>Compliance</strong> stellt sich die Frage der Nachvollziehbarkeit: Wie dokumentieren Organisationen ihre RSL-Regeln? Wie überwachen sie deren Einhaltung? Und wie integrieren sie den Standard in bestehende Datenschutz-, IP- und KI-Governance-Strukturen? RSL ist freiwillig, deshalb braucht es klare interne Prozesse. Gerne unterstützen wir Sie bei der <a href="https://elsengrc.com/contact/">Einführung passender Governance-Frameworks</a>.</p>
<h3>Beratung zum RSL Standard und KI-Suche</h3>
<p>Elsen GRC unterstützt Unternehmen, Tech-Organisationen und Behörden dabei, den <strong>RSL Standard für KI-Suche, die Indexierung und Limitierung für LLM-Verarbeitung</strong> strategisch sinnvoll einzuordnen und umzusetzen. Im Fokus steht nicht die reine Technik, sondern die Verbindung von Urheber- und Nutzungsrechten, Content-Strategie, KI-Governance, Risiko-Management und Compliance.</p>
<p>Wir begleiten Management-Teams, Redaktionen und Content-Ersteller bei der <strong>Entscheidung</strong>, welche <strong>Inhalte für KI-Systeme freigegeben</strong> werden sollten, entwickeln mit Ihnen klare <strong>Content- und KI-Policies</strong> und unterstützen bei der Integration von RSL in bestehende Governance- und Kontrollmodelle. Wir führen auch konkrete <a href="https://elsengrc.com/ki-risiko-check/">Risiko-Checks für den Einsatz von KI</a> durch. Ziel ist es, digitale Sichtbarkeit und Innovationsfähigkeit der eigenen Website, Inhalte und Organisation zu erhalten, ohne die Kontrolle über die eigenen Inhalte und Risiken im KI-Zeitalter zu verlieren.</p>
<p>Melden Sie sich gerne für ein <a href="https://elsengrc.com/contact/">unverbindliches Erstgespräch</a>.</p>
<hr />
<p>Foto: Screenshot / rslstandard.org</p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.heise.de/news/RSL-1-0-Standard-soll-Verwendung-von-Inhalten-regeln-11111422.html">RSL 1.0: Neuer Standard zur Regelung der KI-Nutzung von Inhalten – heise online</a></li>
<li><a href="https://rslstandard.org/">Responsible Search Language (RSL) – offizieller Standard</a></li>
</ul>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/rsl-standard-fuer-ki-suche/">RSL Standard für KI-Suche: Neuer Ordnungsrahmen für Internet-Inhalte</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/rsl-standard-fuer-ki-suche/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Streit um KI-Urheberrecht eskaliert: OpenAI muss 20 Millionen Chatprotokolle offenlegen</title>
		<link>https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/</link>
					<comments>https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/#respond</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Tue, 09 Dec 2025 16:00:06 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Urheberrecht]]></category>
		<category><![CDATA[USA]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1095</guid>

					<description><![CDATA[<p>Der Beitrag <a href="https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/">Streit um KI-Urheberrecht eskaliert: OpenAI muss 20 Millionen Chatprotokolle offenlegen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[
		<div id="fws_69dfbf0a3e9db"  data-column-margin="default" data-midnight="dark"  class="wpb_row vc_row-fluid vc_row top-level"  style="padding-top: 0px; padding-bottom: 0px; "><div class="row-bg-wrap" data-bg-animation="none" data-bg-animation-delay="" data-bg-overlay="false"><div class="inner-wrap row-bg-layer" ><div class="row-bg viewport-desktop"  style=""></div></div></div><div class="row_col_wrap_12 col span_12 dark left">
	<div  class="vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone "  data-padding-pos="all" data-has-bg-color="false" data-bg-color="" data-bg-opacity="1" data-animation="" data-delay="0" >
		<div class="vc_column-inner" >
			<div class="wpb_wrapper">
				
<div class="wpb_text_column wpb_content_element " >
	<div class="wpb_wrapper">
		<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - Streit um KI-Urheberrecht" /></p>
<h3>Executive Summary: Streit um KI-Urheberrecht &#8211; OpenAI muss Chatprotokolle offenlegen</h3>
<p>Der aktuelle <strong>Streit um KI-Urheberrecht</strong> zwischen der <a href="https://www.nytimes.com/">New York Times</a> (NYT) und <a href="https://openai.com/de-DE/">OpenAI</a> erreicht eine neue Eskalationsstufe: Ein US-Bundesgericht verpflichtet OpenAI, rund <strong>20 Millionen anonymisierte Chatprotokolle (von ChatGPT-Nutzern)</strong> an die NYT herauszugeben. Die Protokolle stammen aus einer zufälligen Stichprobe von Consumer-Chats zwischen Dezember 2022 und November 2024 und sollen belegen, ob ChatGPT urheberrechtlich geschützte Inhalte der NYT im Rahmen von Nutzeranfragen reproduziert hat. Laut Gericht sollen die Daten „de-identifiziert“ werden, was der Entfernung etwa von Namen, E-Mail Adressen oder sonstigen personenbezogenen Daten beschreibt. Allerdings  ist eine De-Identifizierung nicht das Gleiche wie eine &#8222;Anonymisierung&#8220;. <strong>OpenAI warnt daher vor erheblichen Eingriffen in die Privatsphäre der Nutzer</strong>, da der Kontext Rückschlüsse auf die verarbeiteten Daten gewähren könnte.</p>
</div>
<p>Für<strong> Governance, Risk und Compliance</strong> (GRC) stellt sich damit eine <strong>zentrale Frage</strong>: Können wir uns darauf verlassen, dass Chatprotokolle von LLM-Anbietern  tatsächlich ausreichend anonymisiert sind? Wie können wir verhindern, dass diese im Rahmen von Gerichtsprozessen herausgegeben werden müssen? Und wie erfahren Organisationen, ob sensible oder Geschäftsinformationen oder Inhalte ihrer Mitarbeitenden in solchen Datenpools landen, wenn der Streit um KI-Urheberrecht vor Gericht ausgetragen wird? Steigen wir ein.</p>
<h3>Hintergrund: Streit um KI-Urheberrecht und Offenlegung von Chatprotokollen</h3>
<p>Im Kern des aktuellen <strong>Streits um KI-Urheberrecht</strong> steht der Vorwurf der NYT, dass OpenAI journalistischen Inhalte des Magazins <strong>ohne Lizenz für das Training von KI-Modellen</strong> genutzt habe. Wie <a href="https://www.heise.de/news/KI-Modelle-New-York-Times-klagt-gegen-Perplexity-Meta-schliesst-Lizenzabkommen-11104846.html">heise online berichtet</a>, hat ein US-Gericht OpenAI nun <strong>verpflichtet</strong>, eine große Menge an Chatprotokollen offenzulegen, damit geprüft werden kann, ob ChatGPT Inhalte der NYT wortgleich oder in wesentlichen Teilen reproduziert hat. Die Richterin hält die Protokolle für prozessrelevant und sieht den Datenschutz durch eine vorherige Anonymisierung als ausreichend gewahrt. Bekanntlich sehen US-Instanzen aber kein vergleichbares Datenschutz-Niveau wie etwa nach <a href="https://elsengrc.com/wiki/c/dsgvo/">DSGVO-Standard</a>.</p>
<p>Laut <a href="https://the-decoder.de/openai-muss-20-millionen-chatgpt-chats-an-new-york-times-herausgeben/">The Decoder</a> handelt es sich um eine zufällig gezogene Stichprobe von <strong>20 Millionen ChatGPT-Unterhaltungen von Consumer-Nutzern</strong> aus dem Zeitraum Dezember 2022 bis November 2024. Ursprünglich hatte die NYT sogar die Herausgabe von rund 1,4 Milliarden Chats gefordert, konnte sich damit aber nicht gerichtlich durchsetzen. OpenAI hat gegen die Entscheidung Berufung eingelegt, muss die Daten nach derzeitigem Stand aber innerhalb eines engen Zeitfensters bereitstellen.</p>
<p>Parallel dazu weitet sich der <strong>Streit um KI-Urheberrecht</strong> aus: Die New York Times verklagt zusätzlich andere KI-Unternehmen wie <a href="https://www.perplexity.ai">Perplexity</a> wegen angeblich unlizenzierter Nutzung von Medieninhalten, während <a href="https://www.meta.com/">Meta</a> versucht, das Thema durch Lizenzabkommen mit Verlagen zu entschärfen. Es geht längst nicht mehr nur um einen Einzelfall, sondern um die grundsätzliche Frage, wie Medieninhalte in KI-Modellen genutzt werden dürfen &#8211; und welche Rolle dabei Nutzerdaten und Chatprotokolle spielen.</p>
<h3>Was wird bei Gerichten offengelegt und warum ist das GRC-relevant?</h3>
<p>Offiziell sollen die Chatprotokolle vor der Übergabe <strong>„de-identifiziert“</strong> werden: Klarnamen, direkte Identifikatoren und offensichtliche personenbezogene Daten sollen entfernt werden, bevor sie bei der NYT landen. Aus GRC-Perspektive ist damit jedoch nur ein Teil des Problems adressiert. In vielen Organisationen wurden und werden öffentliche KI-Dienste wie ChatGPT mit privaten Accounts genutzt &#8211; oft ohne klare Richtlinien, welche Inhalte eingegeben werden dürfen. Es existieren also in den wenigsten Fällen echte Policies in Unternehmen und Behörden, die den Umgang mit den Chatbots regeln.</p>
<p>Aber selbst wenn keine Namen mehr enthalten sind, können <strong>Kontexte und Kombinationen</strong> von Informationen weiterhin Rückschlüsse auf personenbezogene Daten oder Organisationsdaten zulassen: projekt- oder kundenspezifische Bezeichnungen, interne Produkt- oder Projektnamen, spezifische Branchenkonstellationen, Standorte, Fallbeschreibungen oder interne Strategiepapiere, die nicht unter die &#8222;De-Identifikation&#8220; fallen. Gerade in regulierten Bereichen (Gesundheitswesen, Finanzsektor, öffentliche Verwaltung) stellt sich die Frage, ob Mitarbeitende in den betroffenen Zeiträumen vertrauliche Inhalte in Consumer-Konten von ChatGPT eingetragen haben und ob diese Inhalte jetzt Teil einer anonymisierten Datenbasis werden, die im Rahmen des <strong>Streits um KI-Urheberrecht</strong> von der Times ausgewertet wird.</p>
<p>Hinzu kommt: Es existiert <strong>keine einfache Möglichkeit für Organisationen, festzustellen, ob sie konkret betroffen sind</strong>. Die Stichprobe ist zufällig, die Daten sind weitgehend anonymisiert, direkte Benachrichtigungen der Nutzer oder Organisationen sind nicht vorgesehen. Aus Sicht von Governance, Risk und Compliance geht es daher weniger um die Frage, ob man im Einzelfall „drin“ ist, sondern darum, ob das Risiko, in solchen Verfahren zu landen, überhaupt bewusst gesteuert oder eher zufällig in Kauf genommen wurde. Schließlich wird das nicht der letzte Streit um &#8222;KI-Urheberrechte&#8220; sein, der in Zukunft ausgetragen werden dürfte.</p>
<h3>Bedeutung für Governance, Risk und Compliance</h3>
<p>Der aktuelle <strong>Streit um KI-Urheberrecht</strong> zeigt deutlich, dass KI-Nutzung nicht nur ein Technik- oder Produktivitäts-Thema ist, sondern unmittelbar in den Verantwortungsbereich von Governance, Risk und Compliance fällt. Auf der Ebene der <strong>Governance</strong> benötigen Unternehmen und Behörden klare Richtlinien, wie externe KI-Dienste genutzt werden dürfen: Welche Datenarten sind erlaubt, welche sind tabu? Müssen Mitarbeitende zwingend Unternehmensaccounts mit kontrollierten Einstellungen nutzen? Wie werden Schatten-IT und „<a href="https://elsengrc.com/wiki/shadow-ai/">Shadow AI</a>“ verhindert, bei der Mitarbeitende eigenständig und ohne Freigabe Daten in öffentliche Modelle kopieren?</p>
<p>Auf der Ebene des <strong>Risiko-Managements</strong> muss bewertet werden, welche Folgen es haben kann, wenn <strong>sensible oder vertrauliche Inhalte in die Log- oder Trainingsdaten eines KI-Anbieters gelangen</strong>. Der vorliegende Fall zeigt, dass diese Daten später in völlig anderen Kontexten &#8211; etwa vor Gericht &#8211; wieder auftauchen können, selbst wenn sie formal anonymisiert sind. Das betrifft Geschäftsgeheimnisse ebenso wie Kunden- oder Mandanteninformationen, interne Strategien oder sicherheitsrelevante Abläufe. Auch was das im Kontext der Löschpflichten bzw. dem Recht auf Vergessenwerden nach DSGVO in Art. 17 bedeutet, ist schwer einzuordnen.</p>
<p>Für die <strong>Compliance</strong> bedeutet der Fall, dass Verarbeitungsverzeichnisse, Auftragsverarbeitungsverträge (DPAs), Datenschutz-Folgenabschätzungen (DSFAs) und <strong>interne Richtlinien zum Einsatz externer KI-Dienste um genau diese Szenarien erweitert werden müssen</strong>: Was passiert mit unseren Daten, wenn der Anbieter aufgrund eines gerichtlichen Beschlusses zur Offenlegung gezwungen wird? Welche Schutzmechanismen (z. B. Logging-Einstellungen, Speicherdauer, Opt-out-Optionen) haben wir technisch und vertraglich vereinbart? Und wie werden diese heute praktisch eingehalten?<a href="https://elsengrc.com/contact/"> Gerne berate ich Sie hier</a>.</p>
<h3>Beratung zum Einsatz von KI-Systemen und LLMs durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen, SaaS-Anbieter und Behörden dabei, den Einsatz von KI-Systemen wie ChatGPT und anderen Large Language Models <strong>GRC-sicher zu gestalten</strong>. Dazu gehören die Entwicklung und Einführung klarer KI-Nutzungsrichtlinien (AI Policies), die Definition zulässiger und unzulässiger Datenkategorien, der <a href="https://elsengrc.com/ki-risiko-check/">Risiko-Check beim Einsatz von KI</a>, sowie die Gestaltung von Governance-Strukturen, mit denen Shadow-AI und unkontrollierte Nutzung externer KI-Dienste reduziert werden.</p>
<p>Gemeinsam mit Ihnen analysiere ich, welche Daten heute bereits in externe Modelle fließen, welche Risiken daraus entstehen und wie diese <strong>vertraglich, organisatorisch und technisch</strong> abgesichert werden können &#8211; etwa durch den Einsatz kontrollierter Unternehmenszugänge, restriktiver Logging-Policies, EU- oder On-Prem-Hosting-Varianten. Ziel ist es, die Vorteile moderner KI sinnvoll zu nutzen, ohne die Organisation im <strong>Streit um KI-Urheberrecht</strong> oder bei Datenschutz- und Sicherheitsfragen unnötig angreifbar zu machen.</p>
<p>Melden Sie sich gerne für ein <a href="https://elsengrc.com/contact/">unverbindliches Erstgespräch</a>.</p>
<hr />
<p>Foto: Rafael Hoyos Weht &#8211; Unsplash.com</p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.heise.de/news/KI-Modelle-New-York-Times-klagt-gegen-Perplexity-Meta-schliesst-Lizenzabkommen-11104846.html">KI-Urheberrechtsstreit eskaliert: OpenAI muss Chatprotokolle offenlegen – heise online</a></li>
<li><a href="https://the-decoder.de/openai-muss-20-millionen-chatgpt-chats-an-new-york-times-herausgeben/">OpenAI muss 20 Millionen ChatGPT-Chats an New York Times herausgeben – The Decoder</a></li>
</ul>
	</div>
</div>




			</div> 
		</div>
	</div> 
</div></div>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/">Streit um KI-Urheberrecht eskaliert: OpenAI muss 20 Millionen Chatprotokolle offenlegen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Shadow AI (Schatten-KI erklärt) &#8211; Definition und Erklärung</title>
		<link>https://elsengrc.com/wiki/shadow-ai/</link>
					<comments>https://elsengrc.com/wiki/shadow-ai/#comments</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Tue, 09 Dec 2025 15:49:22 +0000</pubDate>
				<category><![CDATA[Risk]]></category>
		<category><![CDATA[Wiki]]></category>
		<category><![CDATA[Compliance]]></category>
		<category><![CDATA[Governance]]></category>
		<category><![CDATA[KI-Risiken]]></category>
		<category><![CDATA[Shadow AI]]></category>
		<category><![CDATA[unerlaubte KI-Nutzung]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1099</guid>

					<description><![CDATA[<p>&#8222;Shadow AI&#8220; bezeichnet den Einsatz von KI-Systemen, Tools oder Modellen innerhalb einer Organisation ohne offizielle Freigabe, Kontrolle oder Wissen der IT-, Sicherheits- oder Compliance-Verantwortlichen oder der Geschäftsführung. Der Begriff lehnt...</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/shadow-ai/">Shadow AI (Schatten-KI erklärt) &#8211; Definition und Erklärung</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>&#8222;Shadow AI&#8220; </strong>bezeichnet den Einsatz von KI-Systemen, Tools oder Modellen innerhalb einer Organisation ohne offizielle Freigabe, Kontrolle oder Wissen der IT-, Sicherheits- oder Compliance-Verantwortlichen oder der Geschäftsführung. Der Begriff lehnt sich an &#8222;Shadow IT&#8220; an und beschreibt unautorisierte oder intransparente KI-Nutzung durch Mitarbeitende oder Fachabteilungen, während <strong>&#8222;Shadow IT&#8220;</strong> die Nutzung intransparenter IT-Services oder Komponenten innerhalb bestehender Infrastrukturen oder Produkte beschreibt. Aber was ist Shadow AI und wie entsteht Sie?</p>
<h3>Wie entsteht Shadow AI?</h3>
<p>Shadow AI entsteht, wenn Mitarbeitende einer Organisation externe KI-Dienste, Chatbots oder generative KI-Tools für die Erledigung von Aufgaben verwenden, ohne dass es dafür eine offizielle Genehmigung oder Policy innerhalb der Organisation gibt. Häufig erfolgt die Nutzung von Shadow AI aus aus Effizienzgründen, jedoch ohne Einhaltung interner Sicherheits- oder Datenschutzvorgaben. Dies kann zum Abfluss sensibler Daten, Kontrollverlust über Geschäftsprozesse und ungewollten Compliance-Risiken führen. Ein klassisches <strong>Beispiel ist die Nutzung privater Accounts von ChatGPT am Arbeitsplatz</strong>.</p>
<h3>Zentrale Risiken von Shadow AI</h3>
<p>Neben der unkontrollierten Datenabfluss oder unklarer interner Rahmenbedingungen für die Nutzung von KI bringt Shadow AI eine weitere Reihe an zentralen Risiken mit sich:</p>
<ul>
<li><strong>Datenschutz- und DSGVO-Verstöße:</strong> unbeabsichtigtes Hochladen personenbezogener oder vertraulicher Daten in Daten-verarbeitende Systeme außerhalb der Organisation</li>
<li><strong>Fehlende Transparenz</strong>: keine Nachvollziehbarkeit, welche Daten wohin übermittelt wurden</li>
<li><strong>Fehlender rechtlicher Rahmen:</strong> keine klaren rechtlichen Rahmbedingungen, wie z.B. das Vorhandensein konkret Auftragsverarbeitungsverträge (AVV-Verträge)</li>
<li><strong>Sicherheitsrisiken</strong>: Nutzung unsicherer oder manipulierbarer KI-Dienste</li>
<li><strong>Fehlende Governance</strong>: Modelle werden genutzt, ohne dass Richtlinien, Schulungen oder Kontrollprozesse existieren</li>
</ul>
<p>Damit kann die unkontrollierte Entstehung von Schatten KI durchaus als elementarer Risikofaktor in einer AI-getriebenen Welt darstellen, der für Unternehmen ohne die richtigen, klar und verständlich formulierten KI-Leitlinien nur schwer in den Griff zu bekommen ist. Umso wichtiger ist es, dass sich Unternehmen, Behörden und sonstige Organisationen frühzeitig gegen das Entstehen von Schatten KI wappnen: Durch einen transparenten und offenen Umgang mit KI.</p>
<h3>Praxisrelevanz</h3>
<p>Shadow AI betrifft nahezu alle Organisationen, die KI im Alltag einsetzen. Unternehmen und Behörden benötigen klare KI-Richtlinien, technische Kontrollen, Schulungen und Transparenzmechanismen, um eine sichere und regelkonforme Nutzung zu gewährleisten.</p>
<h3>Beratung zu Shadow AI in Behörden und Unternehmen durch Elsen GRC</h3>
<p>Elsen GRC hilft Unternehmen und Behörden dabei, Risiken unkontrollierter KI-Nutzung zu identifizieren, Richtlinien für sicheren KI-Einsatz einzuführen, Datenschutzanforderungen umzusetzen und Governance-Strukturen aufzubauen, die eine kontrollierte, transparente und verantwortungsvolle Verwendung von KI-Tools ermöglichen. <a href="https://elsengrc.com/contact/">Vereinbaren Sie ein unverbindliches Beratungsgespräch</a>.</p>
<hr />
<p>Bild: © David Werbrouck &#8211; Unsplash.com</p>
<p>Quellen: <a href="https://www.ibm.com/think/topics/shadow-ai">IBM &#8211; Shadow AI</a></p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/shadow-ai/">Shadow AI (Schatten-KI erklärt) &#8211; Definition und Erklärung</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/wiki/shadow-ai/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Vodafone Ausstieg aus öffentlichen Internetknoten: Was das für Governance, Risk und Compliance bedeutet</title>
		<link>https://elsengrc.com/journal/news/vodafone-ausstieg-aus-oeffentlichen-internetknoten/</link>
					<comments>https://elsengrc.com/journal/news/vodafone-ausstieg-aus-oeffentlichen-internetknoten/#respond</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Wed, 03 Dec 2025 23:02:18 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Peering]]></category>
		<category><![CDATA[Vodafone]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1083</guid>

					<description><![CDATA[<p>Vodafone hat in einer Pressemitteilung angekündigt, sich vollständig aus dem öffentlichen Peering zurückzuziehen. Der Vodafone Ausstieg betrifft unter anderem den führenden deutschen Internetknoten DE‑CIX. Künftig soll das Peering nicht mehr...</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/vodafone-ausstieg-aus-oeffentlichen-internetknoten/">Vodafone Ausstieg aus öffentlichen Internetknoten: Was das für Governance, Risk und Compliance bedeutet</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>Vodafone</strong> hat in einer <a href="https://www.vodafone.com/news/technology/vodafone-selects-inter-link-to-enhance-interconnection-with-other-internet-service-providers">Pressemitteilung</a> angekündigt, sich <strong>vollständig aus dem öffentlichen Peering zurückzuziehen</strong>. Der Vodafone Ausstieg betrifft unter anderem den führenden deutschen Internetknoten DE‑CIX. Künftig soll das Peering nicht mehr über neutrale, öffentliche Internetknoten laufen, sondern über einen privaten Anbieter – Inter.link GmbH mit Sitz in Berlin.</p>
<p>Vodafone begründet den Schritt mit erwarteten Vorteilen: <strong>geringere Latenzen, höhere Resilienz und niedrigere Kosten</strong>. Für Partner und Inhalteanbieter, die bisher über öffentliche Knoten peerten, bedeutet der Wechsel jedoch zusätzlichen Aufwand für Dokumentation, Prüfung und Verwaltung und künftig unter Umständen direkte Peering-Gebühren. Und ob die vermeintlichen Vorteile wirklich &#8222;bis zum Endkunden&#8220; durchkommen, wird sich noch zeigen.</p>
<h3>Mögliche Auswirkungen auf Unternehmen und Behörden</h3>
<p>Der Rückzug von Vodafone aus dem öffentlichen Peering hat mehrere praktische Konsequenzen:</p>
<ul>
<li><strong>Netzwerkabhängigkeiten und Resilienz:</strong> Unternehmen, die bisher auf öffentliches Peering gesetzt haben (z. B. Hosting, Medien, Streaming, IT-Service), müssen prüfen, ob der neue private Pfad die gleiche Stabilität, Performance und Redundanz bietet wie zuvor.</li>
<li><strong>Kostenstruktur &amp; Vertragspartner:</strong> Für Partner, die künftig über private Peering-Provider angebunden werden, können neue Gebühren anfallen. Das kann Budgets, Preiskalkulation und Serviceverträge betreffen &#8211; gerade für kleinere Anbieter oder Behörden mit begrenztem IT-Budget.</li>
<li><strong>Compliance und Transparenz:</strong> Der Austausch von Daten über privat gehostete oder vernetzte Infrastrukturen erfordert neue Prüfungen hinsichtlich Datenschutz, Datensouveränität und Auditierbarkeit – insbesondere, wenn sensitive oder personenbezogene Daten betroffen sind.</li>
<li><strong>Risikomanagement &amp; Verfügbarkeit:</strong> Ein einzelner privater Anbieter wird zur potenziellen Single Point of Failure. Für Unternehmen und Behörden gilt es, resilientere Architektur, Failover-Szenarien und unabhängige Backup-Verbindungen zu prüfen.</li>
</ul>
<p>Insbesondere Dienstleister, Cloud-Hoster, SaaS-Anbieter und Behörden, die auf stabile, redundante Infrastruktur angewiesen sind, sollten ihre Risiko- und Compliance-Analyse entsprechend aktualisieren.</p>
<h3>Was der Vodafone Ausstieg für Governance, Risk &amp; Compliance bedeutet</h3>
<p>Der Wechsel hat direkte GRC-Relevanz:</p>
<ul>
<li><strong>Governance</strong> muss Transparenz über Netzwerk- und Infrastrukturanbieter stellen: Wer verantwortet Routing, Verfügbarkeit und Datenschutz beim neuen Peering-Partner?</li>
<li><strong>Risiko</strong> steigt: mit neuem Anbieter, privatem Peering und veränderter Netzstruktur verändern sich Angriffsflächen, Ausfallrisiken und Abhängigkeiten.</li>
<li><strong>Compliance</strong>: Verträge, Datenschutzanforderungen, Datenflüsse und Auditfähigkeit müssen neu bewertet werden, insbesondere bei sensiblen oder behördlichen Daten. Welche Verträge müssen erneuert werden? Wie kann sichergestellt werden, dass die eigenen vertraglichen Pflichten erfüllt werden?</li>
</ul>
<p>Unternehmen, die bisher auf <strong>öffentliches Peering</strong> vertraut haben, stehen vor potenziell erhöhtem Aufwand bei Sicherstellung von Datenschutz (z.B. nach <a href="https://elsengrc.com/wiki/c/dsgvo/">DSGVO</a>), Verfügbarkeit und Nachvollziehbarkeit, da konkrete Dokumentationspflichten und Neubewertungen von bestehenden Verträgen und Services durch den Vodafone Ausstieg aus dem Peering zu befürchten sind.</p>
<h3>Einschätzung</h3>
<p>Der Schritt von Vodafone mag ja aus wirtschaftlicher Sicht plausibel sein, aber für viele Beteiligte führt er zu <strong>erhöhtem Risiko und unmittelbarer Unsicherheit</strong>. Gerade für GRC-Verantwortliche, Compliance-Teams und Betreiber kritischer Infrastrukturen kann dieser Wandel einen Anlass darstellen, Netzarchitektur, Vertragsbedingungen und Schutzmaßnahmen noch einmal gründlich zu überprüfen!</p>
<p><strong>Öffentliche Internetknoten</strong> waren bislang ein <strong>neutrales Rückgrat der Vernetzung.</strong> Der Rückzug eines großen Anbieters kann dazu führen, dass Infrastruktur-Neutralität schwächer wird und private Anbieter an Bedeutung gewinnen &#8211; mit allen Konsequenzen für Kontrolle, Transparenz und Risiko.</p>
<h3>Beratung durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen, Behörden und Dienstleister darin, ihre Infrastruktur- und Risikoarchitektur neu zu bewerten: Wir analysieren Peering-Änderungen, bewerten Auswirkungen auf Verfügbarkeit und Compliance, prüfen Datenflüsse und Abhängigkeiten, und unterstützen bei der Definition sicherer Architektur- und Governance-Standards.</p>
<p>Damit sichern Sie Transparenz und Compliance &#8211; auch in einem sich schnell wandelnden Netzumfeld. <a href="https://elsengrc.com/contact/">Schreiben Sie uns für eine unverbindliche Erstberatung</a>.</p>
<hr />
<p>Bild: © Matthew Buchanan &#8211; Unsplash.com</p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.vodafone.com/news/technology/vodafone-selects-inter-link-to-enhance-interconnection-with-other-internet-service-providers">Offizielle Vodafone Pressemitteilung</a></li>
<li><a href="https://www.heise.de/news/Vodafone-verlaesst-oeffentliche-Internetknoten-11068819.html">Heise.de &#8211; Vodafone verlässt öffentliche Internetknoten</a></li>
<li><a href="https://www.it-administrator.de/vodafone-peering-interlink">IT-Administrator.de: Vodafone-Peering nur noch über Inter.link</a></li>
</ul>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/vodafone-ausstieg-aus-oeffentlichen-internetknoten/">Vodafone Ausstieg aus öffentlichen Internetknoten: Was das für Governance, Risk und Compliance bedeutet</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/vodafone-ausstieg-aus-oeffentlichen-internetknoten/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Cloud-Verbot für Schweizer Behörden: Schluss mit Microsoft 365, AWS und Google Cloud?</title>
		<link>https://elsengrc.com/journal/news/cloud-verbot-fuer-schweizer-behoerden/</link>
					<comments>https://elsengrc.com/journal/news/cloud-verbot-fuer-schweizer-behoerden/#respond</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Sun, 30 Nov 2025 19:38:47 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[AWS]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Microsoft]]></category>
		<category><![CDATA[Privatim]]></category>
		<category><![CDATA[Schweiz]]></category>
		<category><![CDATA[US Cloud Act]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1067</guid>

					<description><![CDATA[<p>Der Beitrag <a href="https://elsengrc.com/journal/news/cloud-verbot-fuer-schweizer-behoerden/">Cloud-Verbot für Schweizer Behörden: Schluss mit Microsoft 365, AWS und Google Cloud?</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[
		<div id="fws_69dfbf0a40eb6"  data-column-margin="default" data-midnight="dark"  class="wpb_row vc_row-fluid vc_row"  style="padding-top: 0px; padding-bottom: 0px; "><div class="row-bg-wrap" data-bg-animation="none" data-bg-animation-delay="" data-bg-overlay="false"><div class="inner-wrap row-bg-layer" ><div class="row-bg viewport-desktop"  style=""></div></div></div><div class="row_col_wrap_12 col span_12 dark left">
	<div  class="vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone "  data-padding-pos="all" data-has-bg-color="false" data-bg-color="" data-bg-opacity="1" data-animation="" data-delay="0" >
		<div class="vc_column-inner" >
			<div class="wpb_wrapper">
				
<div class="wpb_text_column wpb_content_element " >
	<div class="wpb_wrapper">
		<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - DSGVO Änderungen" /></p>
<h3>Executive Summary: Cloud-Verbot für Schweizer Behörden?</h3>
<p>Lange hat&#8217;s gedauert, aber nun haben auch unsere Schweizer Nachbarn ein Machtwort gesprochen: Die Schweizer Datenschutzkonferenz <a href="https://www.privatim.ch/de/">Privatim</a> hat am 24. November  eine <a href="https://www.privatim.ch/de/privatim-verabschiedet-resolution-zu-internationalen-cloud-losungen/">weitreichende Resolution</a> verabschiedet, die den <strong>Einsatz internationaler Cloud- und SaaS-Dienste für Behörden massiv einschränkt</strong>. Dienste wie <a href="https://www.microsoft.com/de-de/microsoft-365">Microsoft 365</a>, Amazon <a href="https://aws.amazon.com/de/">AWS</a> oder <a href="https://cloud.google.com/">Google Cloud</a> gelten für viele behördliche Datenverarbeitungen künftig als unzulässig, wenn die Daten nicht vollständig und vor allem clientseitig verschlüsselt werden, und zwar so, dass der Anbieter keinen Zugriff auf die Schlüssel hat. Ohne diese technische Voraussetzung dürfen die meisten behördlichen Datenbestände nicht mehr in einer solchen Cloud verarbeitet werden. Laut Privatim ist beispielsweise der US-Cloud Act ein nicht kontrollierbares Risiko für Schweizer Behörden, da <strong>US-Anbieter verpflichtet sein könnten</strong>, Daten ihrer Kunden <strong>an US-Behörden herauszugeben</strong>, ohne die entsprechende internationale Rechtshilfe einzuhalten. Dies gilt dann auch für Daten, die in <strong>Schweizer Rechenzentren</strong> gespeichert sind.</p>
</div>
<p>Die<strong> Schweizer Behörden sollen Cloud-Dienste daher nur noch nutzen</strong>, wenn die Verarbeitung mit einer eigenen, vorgelagerten Verschlüsselung ausgestattet ist und der <strong>Anbieter keinerlei Zugriffsmöglichkeiten auf Daten oder Schlüssel</strong> erhält. Ist das nicht sichergestellt, bleibt ein Dienst wie Microsoft 365 oder AWS lediglich für unkritische Prozesse oder als reiner Speicherort ohne vertrauliche Inhalte denkbar. Wie aber ein Betrieb von etwa Microsoft Teams oder Google Cloud Diensten mit vorgelagerter Verschlüsselung aussehen soll, ist natürlich schwer vorstellbar.</p>
<h3>Wesentliche Gründe: Cloud-Verbot für Schweiz Behörden</h3>
<p>Die Datenschutzbeauftragten kritisieren, dass internationale <strong>Cloud-Anbieter strukturell nicht gewährleisten können, dass behördliche Daten unter schweizerischer Hoheit bleiben</strong>. Besonders problematisch ist, dass weder bei Microsoft 365 noch bei anderen großen Public-Cloud-Anbietern eine echte <strong>Ende-zu-Ende-Verschlüsselung</strong> mit vollständiger <strong>Schlüsselhoheit des Kunden</strong> gewährleistet ist. Hinzu kommen komplexe Anbieterstrukturen, mangelnde Transparenz über interne Zugriffsmöglichkeiten sowie die extraterritoriale Anwendung ausländischer Gesetze wie dem US Cloud Act, durch den US-Behörden unter bestimmten Umständen Zugriff auf Daten verlangen können, selbst wenn diese auf Servern in der Schweiz lagern. Für Schweizer Behörden widerspricht dies den Anforderungen an Geheimhaltung, Amtsgeheimnis und Informationsschutz.</p>
<p>Die Datenschutzkonferenz betont außerdem, dass die Prüfung globaler Anbieter kaum zuverlässig möglich sei und dass die Risiken bei hoheitlichen oder sensiblen Daten deutlich höher sind als in rein privaten Nutzungskontexten. Dadurch entstehe ein<strong> Sicherheits- und Vertrauensdefizit</strong>, das ein <strong>breites Cloud-Verbot für Schweizer Behörden</strong> notwendig gemacht habe.</p>
<h3>Auswirkungen auf Behörden und Unternehmen in der Schweiz</h3>
<p>Behörden in der Schweiz müssen nach dieser umfangreichen Resolution ihre <strong>Cloud-Strategien neu ausrichten</strong>. Viele bisher eingesetzte Public-Cloud-Dienste sind für sensible Daten künftig nicht mehr zulässig, was neue Anforderungen an Infrastruktur, Hosting-Modelle und IT-Architekturen mit sich bringt.<strong> Private Clouds, lokal gehostete Lösungen oder Modelle mit voller Schlüsselhoheit rücken stärker in den Fokus.</strong> Für Unternehmen, die mit Behörden zusammenarbeiten oder Dienstleistungen mit personenbezogenen oder vertraulichen Daten anbieten, steigen die Anforderungen an Hosting, Architektur und Compliance also drastisch, zumindest, wenn sie mit den Schweizer Behörden weiterhin zusammenarbeiten möchten. Was das für Governance, Risk und Compliance bedeutet, schauen wir uns gleich noch an.</p>
<p>Die Entscheidung zeigt zudem, dass der Trend in Richtung stärkerer staatlicher Kontrolle, Datenhoheit und restriktiverer Nutzung globaler Plattformdienste geht. Für alle Organisationen, die in regulatorischen oder datensensiblen Umfeldern arbeiten, werden Souveränität, Verschlüsselungsarchitektur und transparente Datenflüsse zu zentralen Kriterien.</p>
<h3>Bedeutung für Governance, Risk und Compliance</h3>
<p>Für Governance, Risk und Compliance entsteht durch das Cloud-Verbot eine deutlich höhere Verbindlichkeit für alle Unternehmen, die mit Schweizer Behörden zusammenarbeiten oder Dienstleistungen mit personenbezogenen, vertraulichen oder sicherheitsrelevanten Daten erbringen. Sie müssen <strong>nachweisen</strong> können, dass ihre eigenen Cloud- und IT-Architekturen den <strong>gleichen Anforderungen genügen</strong> wie jene der Behörden selbst: <strong>Datenhoheit, überprüfbare Verschlüsselung, klare Schlüsselverwaltung, nachvollziehbare Zugriffsprozesse und vollständige Transparenz der Datenflüsse</strong>.</p>
<p>Gleichzeitig steigen die<strong> Risiken bei Ausschreibungen</strong>, <strong>Audits</strong> und <strong>Vertragsprüfungen</strong>, weil jede nicht souveräne Cloud-Komponente zum <strong>Ausschlusskriterium</strong> werden kann. Unternehmen benötigen daher robuste interne Governance-Strukturen, eine klare Risikoanalyse für alle eingesetzten Dienste sowie <strong>dokumentierte Compliance-Nachweise</strong>, um weiterhin rechts- und auftragsfähig im Schweizer Behördenumfeld zu bleiben.</p>
<h3>Beratung zum Einsatz von Cloud- und SaaS-Software in der Schweiz durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen, öffentliche Stellen und SaaS-Anbieter in der Schweiz beim Aufbau sicherer, <strong>compliance-konformer Cloud-Strategien und Cloud-Implementierungen</strong>. Dazu gehören die Bewertung der bestehenden Cloud-Architektur, die Entwicklung datenschutzkonformer Alternativen, die Prüfung von Verschlüsselungs- und Schlüsselhoheitsmodellen sowie die Begleitung bei Migration, Governance, Risikoanalyse und technischen Schutzmaßnahmen. Ziel ist es, eine tragfähige, rechtssichere und zukunftsfähige IT-Umgebung aufzubauen, die den schweizerischen Datenschutzanforderungen entspricht. Melden Sie sich gerne für ein <a href="https://elsengrc.com/contact/">unverbindliches Erstgespräch</a>.</p>
<hr />
<p>Foto: Janosch Diggelmann &#8211; Unsplash</p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.privatim.ch/de/privatim-verabschiedet-resolution-zu-internationalen-cloud-losungen/">Schweizer Datenschutzkonferenz Privatim</a></li>
<li><a href="https://www.heise.de/news/Schweiz-Datenschuetzer-verhaengen-breites-Cloud-Verbot-fuer-Behoerden-11093438.html">Schweiz: Datenschützer empfehlen breites Cloud-Verbot für Behörden &#8211; Heise.de</a></li>
</ul>
	</div>
</div>




			</div> 
		</div>
	</div> 
</div></div>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/cloud-verbot-fuer-schweizer-behoerden/">Cloud-Verbot für Schweizer Behörden: Schluss mit Microsoft 365, AWS und Google Cloud?</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/cloud-verbot-fuer-schweizer-behoerden/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>DSGVO (Datenschutz Grundverordnung) &#8211; Definition &#038; Bedeutung</title>
		<link>https://elsengrc.com/wiki/c/dsgvo/</link>
					<comments>https://elsengrc.com/wiki/c/dsgvo/#comments</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Sun, 23 Nov 2025 15:21:16 +0000</pubDate>
				<category><![CDATA[Compliance]]></category>
		<category><![CDATA[Wiki]]></category>
		<category><![CDATA[Datenschutz]]></category>
		<category><![CDATA[DSGVO]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1053</guid>

					<description><![CDATA[<p>Die Datenschutz-Grundverordnung (DSGVO) ist das zentrale Datenschutzgesetz der Europäischen Union. Sie legt fest, wie personenbezogene Daten verarbeitet, gespeichert und geschützt werden müssen – sowohl von Unternehmen als auch von öffentlichen...</p>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/c/dsgvo/">DSGVO (Datenschutz Grundverordnung) &#8211; Definition &#038; Bedeutung</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Die <strong>Datenschutz-Grundverordnung</strong> (DSGVO) ist das <strong>zentrale Datenschutzgesetz der Europäischen Union</strong>. Sie legt fest, wie personenbezogene Daten verarbeitet, gespeichert und geschützt werden müssen – sowohl von Unternehmen als auch von öffentlichen Stellen. Ziel ist es, die Grundrechte natürlicher Personen zu schützen, ein <strong>einheitliches Datenschutzniveau</strong> in Europa zu schaffen und den freien Datenverkehr innerhalb des Binnenmarkts zu gewährleisten. Es ist jedoch nicht zu verwechseln mit dem <a href="https://elsengrc.com/wiki/g/eu-data-act-eu-datenverordnung/">EU Data Act</a>, der als weitere europäische Verordnung den fairen Zugang zu Daten sowie die Nutzung von Daten innerhalb der Europäischen Union regeln soll.</p>
<h2>Was regelt die DSGVO und welche Bedeutung hat sie?</h2>
<p>Die DSGVO (Verordnung (EU) 2016/679)  regelt vor allem, unter welchen rechtlichen Voraussetzungen personenbezogene Daten verarbeitet werden dürfen, welche <strong>Transparenz- und Dokumentationspflichten</strong> Unternehmen haben und welche <strong>Rechte Betroffene gegenüber Verantwortlichen geltend machen können</strong> (sog. &#8222;Betroffenenrechte&#8220;). Sie definiert ein umfassendes System aus <strong>Rechtsgrundlagen</strong> (Art. 6), <strong>Schutzmaßnahmen</strong> (Art. 25, 32), <strong>Risikoabwägungen</strong> (Art. 35) und <strong>Kontrollmechanismen</strong> (Art. 30, 33), das europaweit ein einheitliches Datenschutzniveau sicherstellen soll. Damit schafft die DSGVO nicht nur einen verpflichtenden Rechtsrahmen, sondern bildet auch die Grundlage für Vertrauen in digitale Geschäftsmodelle, Cloud-Anwendungen und datenbasierte Services. Die Verordnung gilt dabei für alle Unternehmen, die Daten von EU-Bürgern verarbeiten &#8211; unabhängig vom Unternehmenssitz.</p>
<h3>Wichtige Grundprinzipien der DSGVO</h3>
<p>Die <strong>Grundprinzipien</strong> sind das<strong> Fundament der gesamten Verordnung</strong>: Sie geben vor, wie jede Verarbeitung (rechtlich) auszurichten ist, und dienen Aufsichtsbehörden als Maßstab, um die Rechtmäßigkeit und Angemessenheit datenschutzrelevanter Prozesse zu beurteilen. Allerdings geben die Grundprinzipien keine Hinweise auf konkrete technische Implementierungen oder die Art und Weise der genauen Datenverarbeitung.<br />
<span style="text-decoration: underline;"><strong>(Grundprinzipien gemäß Art. 5 DSGVO):</strong></span></p>
<ul>
<li><strong>Rechtmäßigkeit, Transparenz und Fairness (Art. 5 Abs. 1 lit. a)</strong>: Verarbeitung nur auf gültiger Rechtsgrundlage, nachvollziehbar für Betroffene.</li>
<li><strong>Zweckbindung (Art. 5 Abs. 1 lit. b):</strong> Daten dürfen nur für klar definierte Zwecke verarbeitet werden.</li>
<li><strong>Datenminimierung (Art. 5 Abs. 1 lit. c): </strong>Nur so viele Daten wie notwendig dürfen verarbeitet werden.</li>
<li><strong>Richtigkeit (Art. 5 Abs. 1 lit. d):</strong> Daten müssen korrekt und aktuell sein.</li>
<li><strong>Speicherbegrenzung (Art. 5 Abs. 1 lit. e):</strong> Löschung, sobald Daten nicht mehr benötigt werden.</li>
<li><strong>Integrität und Vertraulichkeit (Art. 5 Abs. 1 lit. f):</strong> Sicherheit durch technische und organisatorische Maßnahmen.</li>
<li><strong>Rechenschaftspflicht (Art. 5 Abs. 2):</strong> Verantwortliche müssen jederzeit nachweisen können, dass sie die Grundsätze einhalten.</li>
</ul>
<h3>Die Betroffenenrechte</h3>
<p>Die DSGVO stellt den <strong>Schutz personenbezogener Daten</strong> in den Vordergrund, die bereits nach definitorischer Weise auf natürliche Personen zurückzuführen sind, demnach sprechen wir von &#8222;Betroffenen&#8220; der Datenverarbeitung. Die im Rahmen der Verordnung festgelegten Betroffenenrechte stellen sicher, dass jede Person Kontrolle über ihre Daten behält und gegenüber Unternehmen wirksame Ansprüche auf Transparenz, Korrektur, Einschränkung oder Löschung durchsetzen kann. Unternehmen sind entsprechend verpflichtet, klare interne Abläufe zur Bearbeitung solcher Anfragen einzurichten.</p>
<p><span style="text-decoration: underline;"><strong>Betroffenenrechte (Art. 12–22 DSGVO):</strong></span></p>
<ul>
<li><strong>Auskunftsrecht</strong>: Art. 15</li>
<li><strong>Recht auf Berichtigung</strong>: Art. 16</li>
<li><strong>Recht auf Löschung</strong> („Recht auf Vergessenwerden“): Art. 17</li>
<li><strong>Recht auf Einschränkung der Verarbeitung</strong>: Art. 18</li>
<li><strong>Datenübertragbarkeit</strong>: Art. 20</li>
<li><strong>Widerspruchsrecht</strong>: Art. 21</li>
<li><strong>Recht auf Nichtunterworfenheit gegenüber automatisierten Entscheidungen</strong>: Art. 22</li>
</ul>
<h3>Pflichten für Unternehmen</h3>
<p>Unternehmen müssen die ihnen von der Datenschutz-Grundverordnung <strong>auferlegten Pflichten</strong> nicht nur formal erfüllen, sondern auch laufend überprüfen und <strong>dokumentieren</strong>, ob ihre Prozesse den <strong>gesetzlichen Anforderungen</strong> entsprechen. Dazu gehören regelmäßige <strong>Audits</strong>, <strong>Überwachung von Dienstleistern</strong>, <strong>Aktualisierung</strong> technischer Maßnahmen bei neuen Risiken sowie der Nachweis, dass Mitarbeitende angemessen geschult und Datenschutzrichtlinien im Alltag tatsächlich angewendet werden. Unternehmen haben dabei insbesondere die folgenden Pflichten:</p>
<ul>
<li><strong>Verzeichnis von Verarbeitungstätigkeiten</strong>: Art. 30</li>
<li><strong>Datenschutz-Folgenabschätzung (DSFA)</strong>: Art. 35</li>
<li><strong>Meldung von Datenschutzverletzungen:</strong> Art. 33 (72-Stunden-Regel)</li>
<li><strong>Benachrichtigung der Betroffenen:</strong> Art. 34</li>
<li><strong>Technische und organisatorische Maßnahmen (TOMs):</strong> Art. 32</li>
<li><strong>Datenschutz durch Technikgestaltung („Privacy by Design“):</strong> Art. 25</li>
<li><strong>Auftragsverarbeitung:</strong> Art. 28 (AV-Verträge)</li>
<li><strong>Bestellung eines Datenschutzbeauftragten:</strong> Art. 37–39</li>
</ul>
<h3>Rechtliche Einordnung</h3>
<ul>
<li>Rechtsakt:<a href="https://eur-lex.europa.eu/eli/reg/2016/679/oj?locale=de"> EU-Verordnung 2016/679</a></li>
<li>In Kraft: seit 25. Mai 2018</li>
<li>Unmittelbar geltendes EU-Recht in allen Mitgliedstaaten (Art. 288 AEUV)</li>
<li>Sanktionsrahmen: Art. 83 (bis 20 Mio. € oder 4 % Weltjahresumsatz)</li>
<li>Regelungen zu Rechtsbehelfen und Haftung: Art. 77 &#8211; 82</li>
<li>Ergänzt durch nationale Gesetze wie das <a href="https://www.gesetze-im-internet.de/bdsg_2018/">BDSG in Deutschland</a></li>
</ul>
<h3>DSGVO im Vergleich zu ISO 27001</h3>
<p>Auch wenn die Verordnung im direkten Vergleich mit der ISO27001 (international anerkannter Standard für Informationssicherheits-Managementsysteme) einige Gemeinsamkeiten aufweist, unterscheiden sich diese beiden Regelwerke dennoch erheblich. Im Vergleich zur DSGVO bietet ISO 27001 einen strukturierten Sicherheitsrahmen, während die DSGVO verbindlich vorgibt, was geschützt werden muss &#8211; ISO 27001 hingegen definiert wie dieser Schutz organisatorisch und auch technisch umgesetzt werden kann.</p>
<p><strong>Ausrichtung</strong>:</p>
<ul>
<li>DSGVO: Verpflichtendes Datenschutzrecht (Art. 1–2)</li>
<li>ISO 27001: Freiwilliger Sicherheitsstandard (ISMS)</li>
</ul>
<p><strong>Inhalte</strong>:</p>
<ul>
<li>DSGVO: Personenbezogene Daten, Betroffenenrechte (Art. 12–22), Rechtsgrundlagen (Art. 6)</li>
<li>ISO 27001: Informationssicherheit, Risikoanalyse, Maßnahmenkatalog (Annex A)</li>
</ul>
<p><strong>Verbindlichkeit</strong>:</p>
<ul>
<li>DSGVO: Gesetz, Bußgelder gemäß Art. 83</li>
<li>ISO 27001: Zertifizierung möglich, aber nicht vorgeschrieben</li>
</ul>
<h3>Beratung zur DSGVO durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen bei der<strong> rechtssicheren Umsetzung der DSGVO</strong> und dem Aufbau nachhaltiger Datenschutzstrukturen. Dazu gehören die Erstellung von Verarbeitungstätigkeiten (Art. 30), die Durchführung von Datenschutz-Folgenabschätzungen (Art. 35), die Entwicklung geeigneter technischer und organisatorischer Maßnahmen (Art. 32), die Bewertung von Auftragsverarbeitern (Art. 28), interne Richtlinien, Mitarbeiterschulungen rund um das Thema Datenschutz (auch im Kontext des <a href="https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/">EU AI Act</a>) und Begleitung bei Datenschutzvorfällen gemäß Art. 33–34.</p>
<p>Auf Wunsch übernimmt Elsen GRC die Funktion des <a href="https://elsengrc.com/externer-datenschutzbeauftragter/">externen Datenschutzbeauftragten gemäß Art. 37–39.</a></p>
<p><a href="https://elsengrc.com/contact/">Sprechen Sie mich gerne direkt an!</a></p>
<hr />
<p>Bild: Immo Wegmann &#8211; Unsplash.com</p>
<p>Quellen<strong>:</strong></p>
<ol>
<li><a href="https://eur-lex.europa.eu/eli/reg/2016/679/oj?locale=de">Verordnung (EU) 2016/679 &#8211; Datenschutz-Grundverordnung</a></li>
<li><a href="https://commission.europa.eu/law/law-topic/data-protection_en">Europäische Kommission &#8211; Data Protection</a></li>
<li><a href="https://www.bfdi.bund.de/DE/Buerger/Basiswissen/BasiswissenDatenschutz/BasiswissenDatenschutz_node.html">Bundesbeauftragter für den Datenschutz und die Informationsfreiheit (BfDI)</a></li>
</ol>
<p>Der Beitrag <a href="https://elsengrc.com/wiki/c/dsgvo/">DSGVO (Datenschutz Grundverordnung) &#8211; Definition &#038; Bedeutung</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/wiki/c/dsgvo/feed/</wfw:commentRss>
			<slash:comments>3</slash:comments>
		
		
			</item>
	</channel>
</rss>
