<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>News Archive - ELSEN GRC</title>
	<atom:link href="https://elsengrc.com/category/journal/news/feed/" rel="self" type="application/rss+xml" />
	<link>https://elsengrc.com/category/journal/news/</link>
	<description>Governance, Risk, Compliance Beratung - AI Privacy &#38; SaaS</description>
	<lastBuildDate>Mon, 26 Jan 2026 21:37:08 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://elsengrc.com/docs/uploads/2025/10/cropped-512-32x32.png</url>
	<title>News Archive - ELSEN GRC</title>
	<link>https://elsengrc.com/category/journal/news/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Kritische Sicherheitslücke in Claude Cowork entdeckt</title>
		<link>https://elsengrc.com/journal/news/kritische-sicherheitsluecke-in-claude-cowork-entdeckt/</link>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Mon, 26 Jan 2026 21:37:08 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[Cowork]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[KI-Cyberangriff]]></category>
		<category><![CDATA[KI-Risiken]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1178</guid>

					<description><![CDATA[<p>Executive Summary: Sicherheitslücke in Claude Cowork &#8211; Datei-Diebstahl via Prompt Injection? Nur wenige Tage nach dem Start von Claude Cowork haben Sicherheitsforscher eine kritische Schwachstelle ermittelt: Angreifer können in scheinbar...</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/kritische-sicherheitsluecke-in-claude-cowork-entdeckt/">Kritische Sicherheitslücke in Claude Cowork entdeckt</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - Sicherheitslücke in Claude Cowork" /></p>
<h3>Executive Summary: Sicherheitslücke in Claude Cowork &#8211; Datei-Diebstahl via Prompt Injection?</h3>
<p>Nur wenige Tage nach dem Start von <strong>Claude Cowork</strong> haben Sicherheitsforscher eine <strong>kritische Schwachstelle</strong> ermittelt: Angreifer können in scheinbar harmlosen Dokumenten wie E-Mails, PDFs und anderen Files<strong>unsichtbare Anweisungen</strong> verstecken, die den KI-Agenten wie Claude&#8217;s &#8222;Cowork&#8220; dazu bringen, <strong>vertrauliche Dateien aus verbundenen Ordnern des lokalen Systems zu exfiltrieren</strong> &#8211; und zwar <strong>ohne menschliche Genehmigung</strong>. Der Angriff nutzt eine bekannte Isolationsschwäche in der containerisierten Codeausführungsumgebung von Claude, die laut Berichten zwar bekannt, aber bislang nicht aktiv geschlossen wurde. Für <strong>Governance, Risk und Compliance</strong> ist das ein klassischer „Reality Check“: Sobald KI-Agenten Zugriff auf lokale Dateisysteme, Integrationen oder Unternehmensdaten erhalten, wird Prompt Injection nicht zu einem theoretischen Risiko, sondern zu einem <strong>konkreten Datenabfluss-Szenario</strong> mit potentiell erheblichen Folgeschäden.</p>
</div>
<p>Der Fall zeigt sehr plastisch, warum „agentische“ KI-Systeme (&#8222;agentic ai&#8220;, also KI, die nicht nur antwortet, sondern Aktionen ausführt) eine neue Risikoklasse darstellen. Die Kernfrage für Organisationen lautet nicht mehr: „Ist das Tool nützlich?“, sondern:  <strong>Welche Daten dürfen überhaupt in Reichweite eines KI-Agenten liegen &#8211; und wie verhindern wir, dass der Agent auf manipulierte Anweisungen reagiert?</strong></p>
<h3>Was ist Claude Cowork und warum ist die Sicherheitslücke in Claude Cowork so kritisch?</h3>
<p><a href="https://claude.com/blog/cowork-research-preview">Claude Cowork</a> ist eine vollständig durch die von <a href="https://www.anthropic.com/news/introducing-claude">Anthropic entwickelte KI Claude</a> automatisiert geschriebene Agenten-Software, die als produktiver KI-Begleiter gedacht ist, der mit der (lokalen) Arbeitsumgebung interagieren kann &#8211; z. B. über verbundene Ordner, Browser-Aktionen oder Integrationen. Wir sprechen also über eine <strong>direkte Integration von KI in die Systemumgebung</strong> beispielsweise von MacOS.</p>
<p>Genau diese Nähe zur &#8222;echten&#8220; Datenquellen macht den Unterschied zu einem normalen Chatbot wie <a href="https://chatgpt.com">ChatGPT</a> oder Google Gemini. Denn anders als in diesen Chat-basierten LLMs müssen in Claude Cowork keine Dateien hoch- und wieder runtergeladen werden, um eine aktive (Mit-) Arbeit der KI zu ermöglichen, sondern dieses geschiehet direkt im Dateisystem des lokalen Rechners. Claude nutzt dabei das bereits aus Claude Code bekannte &#8222;Terminal System&#8220;, das insbesondere bei Softwareentwickler sehr beliebt ist und erheblichen Vorteile gegenüber der Entwicklung beispielsweie mit OpenAIs &#8222;Codex&#8220; beitet.</p>
<p>Wenn ein Agent Dateien lesen und Aktionen ausführen kann, wird jede Eingabe- oder Dokumentquelle zu einer potenziellen Angriffsfläche. <a href="https://www.heise.de/news/Sicherheitsluecke-in-Claude-Cowork-So-verschaffen-sich-Hacker-unbemerkt-Zugriff-11142353.html">heise</a> und <a href="https://t3n.de/news/sicherheitsluecke-in-claude-cowork-so-verschaffen-sich-hacker-unbemerkt-zugriff-1725440/">t3n</a> sprechen in diesem Zusammenhang von Dateiexfiltration über<strong> indirekte Prompt-Injektionen</strong> &#8211; also versteckte Befehle, die nicht in der sichtbaren Benutzeranweisung stehen, sondern „im Hintergrund“ in einem Dokument platziert werden. Klassischen Beispiele sind schwarze Schriften auf schwarzem Hintergrund oder weiße Schriften auf weißem Hintergrund, die über eingelesene PDF-, Word- oder auch HTML-Dokumente direkt in den Systemprompt wandern und unauthorisierte Aktionen durchführen könnten.</p>
<h3>So läuft der Angriff ab: „Harmloses Dokument“ + versteckte Anweisung = Datei-Upload</h3>
<p>Die von Sicherheitsforschern beschriebene Angriffskette ist aus Angreifersicht unangenehm simpel: Ein Nutzer verbindet Claude Cowork mit einem lokalen Ordner, in dem auch vertrauliche Inhalte liegen (z.B. Fotos, andere Dokumente, Source Code). Danach wird eine Datei (z. B. eine Word-Datei) in Cowork geladen, die wie ein nützliches Hilfsdokument wirkt &#8211; in der Praxis werden solche <strong>„Prompt- oder Skill-Dateien“</strong> gerne online geteilt, was die Eintrittswahrscheinlichkeit erhöht. In das Dokument ist jedoch eine Anweisung eingebettet, die für Menschen praktisch unsichtbar ist, etwa durch sehr kleine Schrift und Farb-/Layout-Tricks. <a href="https://the-decoder.com/claude-cowork-hit-with-file-stealing-prompt-injection-days-after-anthropics-launch/">The Decoder</a> beschreibt das konkret als<strong> 1-Punkt-Schrift</strong>, weiß auf weiß, mit minimalem Zeilenabstand.</p>
<p>Wenn der Nutzer Cowork dann bittet, die vertraulichen Daten „auf Grundlage“ dieses Dokuments zu analysieren, übernimmt die versteckte Anweisung die Kontrolle. Laut <a href="https://www.heise.de/news/Sicherheitsluecke-in-Claude-Cowork-So-verschaffen-sich-Hacker-unbemerkt-Zugriff-11142353.html">heise</a> und <a href="https://t3n.de/news/sicherheitsluecke-in-claude-cowork-so-verschaffen-sich-hacker-unbemerkt-zugriff-1725440/">t3n</a> wird der Agent dabei u. a. angewiesen, einen <strong>curl</strong>-Befehl auszuführen und eine Datei über die <strong>Anthropic File-Upload-API</strong> hochzuladen &#8211; inklusive Übermittlung eines API-Schlüssels der Angreifer, sodass die Datei direkt auf deren Konto landet. Besonders relevant: <strong>Während dieses Ablaufs ist keine manuelle Freigabe erforderlich</strong>.</p>
<h3>Warum eine Sicherheitslücke bei Claude Cowork so schwer zu erkennen ist</h3>
<p>Ein zentraler Punkt ist, dass der <strong>Datenabfluss nicht „wie Malware“ wirkt</strong>. Der Upload passiert über legitime, für das Produkt notwendige <strong>Schnittstellen</strong>. Laut Berichten bleibt der <strong>Angriff oft unentdeckt</strong>, weil die Anthropic-API als vertrauenswürdig gilt und daher nicht automatisch als verdächtiger Datenabfluss auffällt.<br />
<a href="https://www.heise.de/news/Sicherheitsluecke-in-Claude-Cowork-So-verschaffen-sich-Hacker-unbemerkt-Zugriff-11142353.html">heise</a> und <a href="https://t3n.de/news/sicherheitsluecke-in-claude-cowork-so-verschaffen-sich-hacker-unbemerkt-zugriff-1725440/">t3n</a> greifen zudem die Kritik auf, dass „Achtet auf verdächtige Aktionen“ als Warnhinweis für normale Nutzer nicht realistisch ist &#8211; Prompt Injection ist für viele Anwender schlicht nicht zuverlässig erkennbar.</p>
<h3>GRC-Relevanz: Was bedeutet das für Governance, Risk und Compliance?</h3>
<p>Auch für diesen sicherheitsrelevanten Case mit Claude Cowork nehme ich eine Einordnung in den Kontext von GRC vor, damit IT-Leader, IT-Spezialisten und Berater auf die neuen Bedrohungen durch agentische Systeme in Zukunft besser reagieren können:</p>
<p><strong>Governance:</strong> KI-Agenten mit Datei- oder Integrationszugriff gehören nicht in die „Tool-Ecke“ einzelner Teams. Es braucht klare <strong>Policies</strong>: Welche Verzeichnisse dürfen angebunden werden? Welche Datenklassen sind tabu (Kundendaten, Verträge, HR, Quellcode, Finanzzahlen)? Welche Tools und Schnittstellen sind freigegeben &#8211; und mit welchen Settings?</p>
<p><strong>Risk:</strong> Prompt Injection ist hier kein abstraktes Modellrisiko, sondern ein <strong>Datenabfluss-Risiko</strong> durch nicht vertrauenswürdige Inputs (Dokumente, Webseiten, geteilte „Skills“). Das Thema gehört klar in das Cyber-Risikomanagement: Eintrittswahrscheinlichkeit für Schäden steigt, sobald Agenten in reale Workflows integriert werden. Schadenshöhe ist potenziell hoch, weil es um vertrauliche Dateien geht &#8211; und diese könne personenbezogene, sensible Daten enthalten ebenso wie schützenswerte Geschäfts- und Kundendaten.</p>
<p><strong>Compliance:</strong> Sobald personenbezogene Daten oder vertrauliche Unternehmensinformationen betroffen sein können, treffen Datenschutz, Geheimhaltung, Vertrags- und Sicherheitsanforderungen aufeinander. Organisationen müssen nachweisen können, dass sie angemessene TOMs etabliert haben &#8211; und dass KI-Tools nicht „ungeprüft“ Zugriff auf sensible Daten erhalten. Der Fall ist zudem ein gutes Beispiel für „<a href="https://elsengrc.com/wiki/shadow-ai/">Shadow AI</a>“: Wenn Mitarbeitende solche Agenten eigenständig anbinden, entstehen Compliance-Risiken außerhalb formaler Kontrollen.</p>
<h3>Pragmatische Konsequenzen: Was Unternehmen jetzt tun sollten</h3>
<p>Wer agentische KI-Tools testet oder unmittelbar einführen will, sollte kurzfristig <strong>drei Leitplanken</strong> setzen:</p>
<ol>
<li><strong>Scope begrenzen</strong> (nur nicht-sensitive Testdaten, keine lokalen Ordner mit sensiblen Kundendaten).</li>
<li><strong>Input-Hygiene</strong> (keine fremden „Skills“, Prompt-Dateien oder Dokumente aus unklaren Quellen in produktive Workflows).</li>
<li><strong>Kontrollen einziehen</strong> (Monitoring, DLP (Data Loss Prevention)/Upload-Kontrollen, klare Freigabeprozesse für Integrationen und Datei-Zugriffe). Diese Maßnahmen ersetzen keine Produkt-Fixes &#8211; reduzieren aber das Risiko, bis Anbieter wirksame Schutzmechanismen liefern.</li>
</ol>
<h3>Beratung zur sicheren KI-Nutzung im Kontext Cybersecurity durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen, SaaS-Anbieter und Behörden dabei, KI-Agenten und KI-Integrationen <strong>GRC-sicher</strong> zu betreiben &#8211; insbesondere dort, wo Datei-, System- oder Integrationszugriffe ins Spiel kommen. Dazu gehören Use-Case-Assessments, Policy- und Governance-Design (inkl. Datenklassen/Scopes), Risikoanalysen zu Prompt-Injection-Szenarien sowie die Ableitung pragmatischer TOMs (Freigaben, Monitoring, technische Guardrails). Ziel ist eine KI-Nutzung, die Produktivität ermöglicht, ohne unkontrollierte Datenabflüsse und Haftungsrisiken zu provozieren. Vereinbaren Sie gerne ein <a href="https://elsengrc.com/contact/">unverbindliches Beratungsgespräch</a>.</p>
<hr />
<p>Foto: <a href="https://claude.com/blog/cowork-research-preview">© Claude.com</a></p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.heise.de/news/Sicherheitsluecke-in-Claude-Cowork-So-verschaffen-sich-Hacker-unbemerkt-Zugriff-11142353.html">Sicherheitslücke in Claude Cowork: So verschaffen sich Hacker unbemerkt Zugriff &#8211; heise.de</a></li>
<li><a href="https://t3n.de/news/sicherheitsluecke-in-claude-cowork-so-verschaffen-sich-hacker-unbemerkt-zugriff-1725440/">Sicherheitslücke in Claude Cowork &#8211; t3n.de</a></li>
<li><a href="https://the-decoder.com/claude-cowork-hit-with-file-stealing-prompt-injection-days-after-anthropics-launch/">Claude Cowork hit with file-stealing prompt injection &#8211; The Decoder</a></li>
</ul>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/kritische-sicherheitsluecke-in-claude-cowork-entdeckt/">Kritische Sicherheitslücke in Claude Cowork entdeckt</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>NIS-2 Registrierung startet &#8211; was Unternehmen jetzt wissen müssen</title>
		<link>https://elsengrc.com/journal/news/nis-2-registrierung-startet/</link>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Tue, 13 Jan 2026 23:03:48 +0000</pubDate>
				<category><![CDATA[GRC Journal]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[NIS-2 Richtlinie]]></category>
		<category><![CDATA[NIS2]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1130</guid>

					<description><![CDATA[<p>Executive Summary: NIS-2 Registrierung startet jetzt beim BSI &#8211; was Unternehmen jetzt wissen müssen Mit dem Start der NIS-2 Registrierung beginnt für viele Unternehmen und Organisationen eine neue Phase verpflichtender...</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/nis-2-registrierung-startet/">NIS-2 Registrierung startet &#8211; was Unternehmen jetzt wissen müssen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - NIS-2 Registrierung" /></p>
<h3>Executive Summary: NIS-2 Registrierung startet jetzt beim BSI &#8211; was Unternehmen jetzt wissen müssen</h3>
<p>Mit dem Start der <strong>NIS-2 Registrierung</strong> beginnt für viele Unternehmen und Organisationen eine neue Phase verpflichtender <strong>Cybersicherheits-Compliance.</strong> Die europäische <a href="https://elsengrc.com/wiki/c/nis-2-richtlinie/">NIS-2-Richtlinie</a>  erweitert den Kreis der betroffenen Einrichtungen deutlich und verpflichtet diese, sich aktiv zu identifizieren, Sicherheitsmaßnahmen umzusetzen und Vorfälle zu melden. Auch wenn die nationale Umsetzung in Deutschland noch nicht vollständig abgeschlossen ist, laufen die <strong>Vorbereitungen für die NIS-2 Registrierung beim <a href="https://www.bsi.bund.de/DE/Themen/Regulierte-Wirtschaft/NIS-2-regulierte-Unternehmen/NIS-2-Starterpaket/nis-2-start_node.html">BSI</a> bereits auf Hochtouren</strong>. Unternehmen sollten jetzt klären, ob sie betroffen sind, ab wann Pflichten greifen und wo die Registrierung erfolgen wird &#8211; denn eine automatische Benachrichtigung ist nicht vorgesehen.</p>
</div>
<p>Die <strong>NIS-2 Registrierung</strong> ist kein rein formaler Akt, sondern der sichtbare Einstieg in ein umfassendes Cybersicherheits- und Aufsichtsregime. Sie markiert den Punkt, an dem sich Organisationen gegenüber Behörden erklären müssen, ganz im Sinne von &#8222;Wir sind von NIS 2 betroffen  &#8211; und wir haben unsere Risiken und Schutzmaßnahmen im Griff!&#8220;</p>
<h3>Was ist NIS-2 überhaupt? Kurze Einordnung</h3>
<p>Die <strong>NIS-2-Richtlinie</strong> (Network and Information Security Directive 2) ist eine EU-weite Vorgabe zur Stärkung der Cyber-Resilienz. Sie ersetzt die bisherige <a href="https://eur-lex.europa.eu/legal-content/DE/TXT/HTML/?uri=CELEX:32016L1148">NIS-Richtlinie</a> und reagiert auf die zunehmende Bedrohung durch Cyberangriffe, Lieferkettenrisiken und systemische IT-Abhängigkeiten &#8211; auch im Kontext von KI.</p>
<p>Im Kern verpflichtet NIS 2 betroffene Organisationen dazu, <strong>angemessene technische und organisatorische Maßnahmen </strong>(sog. TOMs) zur IT- und Informationssicherheit umzusetzen, Sicherheitsvorfälle zeitnah zu melden und die Verantwortung klar auf der Leitungsebene zu verankern. Cybersicherheit wird damit ausdrücklich zur Management- und <strong>Governance-Aufgabe</strong>.</p>
<h3>Ab wann gilt NIS-2 &#8211; und was bedeutet das für die Registrierung?</h3>
<p>Die NIS-2-Richtlinie ist auf EU-Ebene bereits in Kraft getreten. Die Mitgliedstaaten müssen sie in nationales Recht überführen. In Deutschland erfolgt dies über das <strong>NIS-2-Umsetzungs- und Cybersicherheitsstärkungsgesetz</strong>, das sich aktuell noch im Gesetzgebungsverfahren befindet.</p>
<p>Unabhängig davon bereiten die zuständigen Behörden, insbesondere das <strong>Bundesamt für Sicherheit in der Informationstechnik (BSI)</strong>, bereits die <strong>NIS-2 Registrierung</strong> vor. Geplant ist ein zentrales <a href="https://www.bsi.bund.de/DE/Themen/Regulierte-Wirtschaft/NIS-2-regulierte-Unternehmen/NIS-2-Anleitung-Registrierung/Anleitung-Registrierung_node.html">Registrierungsportal</a>, über das betroffene Unternehmen ihre Zugehörigkeit anzeigen müssen. Die Registrierung ist damit eine <strong>aktive Pflicht</strong>: Unternehmen müssen selbst prüfen, ob sie unter NIS 2 fallen, und sich fristgerecht registrieren.</p>
<h3>Für wen gilt die NIS-2 Registrierung und wer muss sich registrieren?</h3>
<p>Die NIS-2-Richtlinie erweitert den Anwendungsbereich erheblich. Betroffen sind nicht mehr nur klassische Kritische Infrastrukturen, sondern auch viele mittelständische Unternehmen und KMU. Maßgeblich sind dabei vor allem <strong>Branche, Unternehmensgröße und Funktion</strong>.</p>
<p>Erfasst werden unter anderem Unternehmen aus den Bereichen Energie, Verkehr, Wasser, Gesundheitswesen, digitale Infrastruktur, IT-Dienstleistungen, Cloud- und Rechenzentrumsbetrieb, Industrie, Entsorgung sowie Teile der öffentlichen Verwaltung. Die Richtlinie unterscheidet zwischen <strong>wesentlichen Einrichtungen</strong> und <strong>wichtigen Einrichtungen</strong>. Beide Gruppen unterliegen der NIS-2 Registrierung und verbindlichen Sicherheitsanforderungen &#8211; mit abgestufter Aufsicht und Sanktionierung.</p>
<p><span style="text-decoration: underline;">NIS-2 gilt also insbesondere für:</span></p>
<ul>
<li><strong>Unternehmen ab 50 Mitarbeitenden oder 10 Mio. € Jahresumsatz</strong>, sofern sie in einem erfassten Sektor tätig sind</li>
<li><strong>Kritische und wichtige Branchen</strong> wie Energie, Verkehr, Gesundheitswesen, Wasser, digitale Infrastruktur, IT- und Cloud-Dienstleister</li>
<li><strong>Unternehmen mit systemischer Bedeutung</strong>, z. B. Managed Service Provider, Rechenzentren, SaaS- und Plattformanbieter</li>
<li><strong>Öffentliche Einrichtungen und Behörden</strong>, soweit sie unter den erweiterten Anwendungsbereich der Richtlinie fallen</li>
</ul>
<h3>Wo startet die Registrierung für NIS-2 beim BSI?</h3>
<p>Die <strong>NIS-2 Registrierung</strong> soll in Deutschland zentral über ein <strong>BSI-Portal</strong> erfolgen (<a href="https://www.bsi.bund.de/DE/Service-Navi/Presse/Pressemitteilungen/Presse2026/260601_NIS2_BSI-Portal.html">Link zur BSI-Pressemitteilung</a>). Dort müssen Unternehmen künftig Angaben zu ihrer Organisation, Branche und Rolle machen. Auf dieser Basis erfolgt die Zuordnung zum NIS-2-Regime und die weitere aufsichtsrechtliche Betreuung.</p>
<p>Mit der Registrierung gehen weitere Pflichten einher: die Benennung von Ansprechpartnern, die Vorbereitung auf Meldepflichten bei Sicherheitsvorfällen sowie die Nachweisbarkeit von Sicherheitsmaßnahmen. Die Registrierung ist damit der erste formale Schritt in eine laufende Compliance-Beziehung mit der Aufsichtsbehörde.</p>
<div id="attachment_1136" style="width: 2570px" class="wp-caption alignnone"><img fetchpriority="high" decoding="async" aria-describedby="caption-attachment-1136" class="size-full wp-image-1136" src="https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-scaled.jpg" alt="NIS-2 Registrierung beim BSI" width="2560" height="957" srcset="https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-scaled.jpg 2560w, https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-300x112.jpg 300w, https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-1024x383.jpg 1024w, https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-768x287.jpg 768w, https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-1536x574.jpg 1536w, https://elsengrc.com/docs/uploads/2026/01/NIS-2-Registrierung-BSI-2048x765.jpg 2048w" sizes="(max-width: 2560px) 100vw, 2560px" /><p id="caption-attachment-1136" class="wp-caption-text">Die NIS-2 Registrierung ist beim BSI über das BSI-Portal möglich</p></div>
<h3>Bedeutung der NIS-2 Registrierung für Governance, Risk und Compliance</h3>
<p>Aus GRC-Sicht stellt die <strong>NIS-2 Registrierung</strong> den Startpunkt für ein dauerhaftes Cybersicherheits-Management dar. Entsprechende <strong>Governance-Strukturen</strong> müssen sicherstellen, dass die Geschäftsleitung informiert, eingebunden und verantwortlich ist. <strong>Risiko-Management</strong> muss Cyberrisiken systematisch erfassen, priorisieren und regelmäßig überprüfen &#8211; auch mit Blick auf Dienstleister und Lieferketten.</p>
<p>Für die <strong>Compliance</strong> bedeutet NIS 2, dass Sicherheitsmaßnahmen, Schulungen, Risikoanalysen und Incident-Prozesse nicht nur existieren, sondern dokumentiert und prüfbar sein müssen. Die Registrierung macht Organisationen sichtbar &#8211; und damit auch überprüfbar. Wer hier also noch keine passenden Risk- und Compliance-Management Prozesse etabliert hat, sollte sich spätestens nach der Registrierung sputen!</p>
<h3>Unterstützung bei der Registrierung durch Elsen GRC</h3>
<p>Elsen GRC begleitet Unternehmen und öffentliche Stellen bei der <strong>NIS-2 Registrierung</strong> und der anschließenden Umsetzung der Anforderungen. Dazu gehören die Prüfung der Betroffenheit, die strukturierte Vorbereitung auf das BSI-Portal, der Aufbau oder Abgleich von Governance- und Risiko-Strukturen sowie die Integration von NIS-2-Pflichten in bestehende Compliance-Systeme.</p>
<p>Ziel ist es, die <strong>Registrierung</strong> nicht als isolierte Pflicht zu behandeln, sondern als<strong> Einstieg in eine belastbare und zukunftsfähige Cyber-Governance</strong>. Gerne unterstütze ich Sie dabei im Rahmen eines <a href="https://elsengrc.com/contact/">unverbindlichen Erstgesprächs</a>.</p>
<hr />
<p>Foto: Joshua Woroniecki &#8211; Unsplash.com</p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.digitalbusiness-magazin.de/nis2-registrierung-bsi-portal-a-fc4f880ec4b2005d907b4f4f5e3e979f/">NIS-2 Registrierung und BSI-Portal &#8211; Digital Business Magazin</a></li>
<li><a href="https://www.ihk.de/erfurt/service/digitalisierung-it/cybersicherheitsrecht-nis-2-umsetzungsgesetz-6834644">NIS-2 Umsetzungsgesetz &#8211; IHK Erfurt</a></li>
<li><a href="https://digital-strategy.ec.europa.eu/de/policies/nis2-directive">NIS-2-Richtlinie &#8211; Europäische Kommission</a></li>
<li><a href="https://www.all-about-security.de/cybersicherheitsrecht-nis-2-startet-morgen/">NIS 2 startet &#8211; All-About-Security</a></li>
</ul>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/nis-2-registrierung-startet/">NIS-2 Registrierung startet &#8211; was Unternehmen jetzt wissen müssen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>RSL Standard für KI-Suche: Neuer Ordnungsrahmen für Internet-Inhalte</title>
		<link>https://elsengrc.com/journal/news/rsl-standard-fuer-ki-suche/</link>
					<comments>https://elsengrc.com/journal/news/rsl-standard-fuer-ki-suche/#respond</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Fri, 19 Dec 2025 21:13:10 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[KI-Suche]]></category>
		<category><![CDATA[RSL]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1110</guid>

					<description><![CDATA[<p>Executive Summary: RSL Standard für KI-Suche Mit RSL 1.0 (&#8222;Really Simple Licensing&#8220; oder auch &#8222;Responsible Search Language&#8220;) entsteht erstmals ein technischer Standard, der nicht mehr nur regelt, ob Inhalte gecrawlt...</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/rsl-standard-fuer-ki-suche/">RSL Standard für KI-Suche: Neuer Ordnungsrahmen für Internet-Inhalte</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - RSL Standard für KI-Suche" /></p>
<h3>Executive Summary: RSL Standard für KI-Suche</h3>
<p>Mit <strong>RSL 1.0 (&#8222;Really Simple Licensing&#8220; </strong>oder auch<strong> &#8222;Responsible Search Language&#8220;)</strong> entsteht erstmals ein technischer Standard, der nicht mehr nur regelt, <em>ob</em> Inhalte gecrawlt werden dürfen, sondern <strong>wie und zu welchem Zweck Inhalte von KI-Systemen genutzt werden dürfen</strong>. Der <strong>RSL Standard für KI-Suche</strong> adressiert damit das bisherige Internet-Governance Vakuum: Die robots.txt als Crawler-Steuerung ist für klassische Suchmaschinen wie Google gedacht, nicht für LLMs, KI-Suchsysteme und Answer Engines. RSL ermöglicht es Organisationen, maschinenlesbar festzulegen, ob Inhalte indexiert, zusammengefasst, in KI-Antworten verwendet oder für Trainings- und Finetuning-Zwecke der LLMs genutzt werden dürfen. Für CEOs, Tech Leads und Management markiert RSL einen Wendepunkt: Die Kontrolle über digitale Inhalte verschiebt sich von impliziter Duldung hin zu expliziter, strategischer Steuerung.</p>
</div>
<p>Der neue <strong>RSL Standard für KI-Suche</strong> ist mehr als nur technisches Detail. RSL ist ein neuer <strong>technischer Standard zur Steuerung der KI-basierten Nutzung von Web-Inhalten</strong>, aber kein Lizenzvertrag im rechtlichen Sinn. Er wird damit zu einem Instrument, mit dem Organisationen Verantwortung für die Positionierung ihrer Inhalte im wachsenden KI-Ökosystem.</p>
<h3>Warum der RSL Standard die robots.txt im KI-Zeitalter ersetzen wird</h3>
<p>Die mittlerweile &#8222;in die Tage gekommene&#8220; robots.txt kennt im Kern nur zwei Zustände: erlauben oder verbieten. Dieses binäre Modell funktioniert für klassische Webcrawler, versagt aber im Kontext moderner KI-Systeme. Ein einfaches Beispiel:</p>
<pre><code># robots.txt
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
</code></pre>
<p>Allen User-Agents ist es also erlaubt, die Verzeichnisse zu durchsuchen, mit Ausnahme des Verzeichnisses /wp-admin/, wobei /wp-admin/admin-ajax.php erlaubt ist. Einschränkungen lassen sich also granular festlegen.</p>
<p>LLMs und KI-Suchmaschinen nutzen Inhalte aber nicht nur zur Auffindbarkeit, sondern zur <strong>semantischen Verarbeitung</strong>: Sie extrahieren Wissen, erzeugen Zusammenfassungen, kombinieren Inhalte über Quellen hinweg und integrieren diese in direkte Antworten oder die eigenen Datenstrukturen und Modelle.</p>
<p>Genau hier setzt RSL an. Der <strong>Standard trennt erstmals sauber zwischen unterschiedlichen Verwendungszwecken von Inhalten</strong>. Damit reagiert er auf eine Realität, die viele Organisationen längst spüren: Inhalte werden heute nicht mehr nur „gefunden“, sondern automatisiert <strong>weiterverarbeitet</strong>. Ohne explizite Steuerung entsteht ein Kontrollverlust &#8211; technisch, rechtlich wie strategisch.</p>
<h3>Beispiel und Verwendung des RSL Standards für Websites</h3>
<p>Der RSL-Standard ermöglicht es Website-Betreibern, <strong>maschinenlesbar und zweckbezogen</strong> festzulegen, wie KI-Suchsysteme, Answer Engines und Crawler Inhalte verwenden dürfen. Anders als bei <strong>robots.txt</strong> geht es nicht nur um „zulassen“ oder „blockieren“, sondern um <strong>konkrete Nutzungsbedingungen</strong> wie Indexierung, KI-Zusammenfassungen oder Wiederverwendung, inklusive Lizenz- und <strong>Attributionspflichten</strong>.</p>
<p>Das folgende Beispiel zeigt eine bewusst offene Freigabe für die gesamte Website, gekoppelt an eine klare Bedingung: Nutzung ist erlaubt, aber <strong>nur mit Quellenangabe</strong> nach <a href="https://creativecommons.org/licenses/by/4.0/deed.de">CC BY 4.0</a>.</p>
<pre><code>&lt;rsl xmlns="https://rslstandard.org/rsl"&gt;
  &lt;content url="/"&gt;
    &lt;license&gt;
      &lt;permits type="usage"&gt;all&lt;/permits&gt;
      &lt;payment type="attribution"&gt;
        &lt;!-- Content available under CC attribution license --&gt;
        &lt;standard&gt;https://creativecommons.org/licenses/by/4.0/&lt;/standard&gt;
      &lt;/payment&gt;
    &lt;/license&gt;
  &lt;/content&gt;
&lt;/rsl&gt;
</code></pre>
<p><strong>Erklärung der RSL-Bestandteile:</strong></p>
<ul>
<li>Technisch bedeutet <code>&lt;content url="/"&gt;</code>, dass die Regel für den gesamten Webauftritt (Root und Unterseiten) gilt.</li>
<li>Mit <code>&lt;permits type="usage"&gt;all&lt;/permits&gt;</code> wird die Nutzung der Inhalte grundsätzlich erlaubt, also nicht nur das Crawlen, sondern je nach Implementierung auch die <strong>Weiterverarbeitung in KI-Suchen und KI-Antwortsystemen</strong>.</li>
<li>Der Block <code>&lt;payment type="attribution"&gt;</code> definiert die Gegenbedingung: Es ist <span style="text-decoration: underline;">keine</span> Bezahlung im monetären Sinne, sondern viel mehr eine <strong>Verpflichtung zur Attribution</strong>.</li>
<li>Über <code>&lt;standard&gt;</code> wird diese Pflicht an eine etablierte Lizenz gekoppelt, hier <strong>Creative Commons BY 4.0</strong>, was bedeutet: Inhalte dürfen genutzt und wiedergegeben werden, solange eine nachvollziehbare Quellenangabe erfolgt.</li>
</ul>
<p>Aus GRC-Sicht ist entscheidend, dass solche Freigaben eine bewusste <strong>Governance-Entscheidung</strong> sind: Sie <strong>erhöhen Reichweite und Auffindbarkeit</strong>, können aber auch <strong>Kontroll- und Verwertungsrisiken</strong> erhöhen, wenn Attribution praktisch nicht durchgesetzt oder überprüft wird. Das betrifft insbesondere Plattformen oder beispielsweise Organisationen mit Mediensammlungen oder Archiven, für die gesonderte Nutzungsbedingungen abgeschlossen wurden, die vor der Ausbreitung von KI-Systemen abgeschlossen wurden.</p>
<h3>Wie wird RSL verwendet und in Websites eingebunden?</h3>
<p>Die RSL Datei kann auf unterschiedliche Weisen in Websites eingebunden werden. In Kürze stellen wir hier eine weiterführende<strong> Anleitung für die Einbindung von RSL-Dateien</strong> bereit. In der Zusammenfassung:</p>
<ul>
<li><strong>RSL-Datei statisch bereitstellen:</strong> RSL als XML unter einer festen, öffentlichen URL veröffentlichen (z. B. /.well-known/license.xml oder /license.xml)</li>
<li><strong>RSL Discovery ermöglichen:</strong> In der robots.txt auf die RSL-Datei verweisen (RSL: https://…/license.xml), optional zusätzlich im HTML-Head verlinken (z.B. &lt;link rel=&#8220;rsl&#8220; type=&#8220;application/xml&#8220; href=&#8220;https://deinedomain.tld/.well-known/license.xml&#8220;&gt;</li>
<li><strong>Struktur sauber halten:</strong> Gültiges XML, korrekter Content-Type, stabile URL und http Status 200 sicherstellen</li>
<li><strong>Governance beachten</strong>: RSL-Regeln strategisch und nicht wahllos festlegen, dokumentieren und regelmäßig überprüfen</li>
</ul>
<p>Wichtig: RSL ist ein Signal, kein rechtlicher Zwang. Deshalb sollte der Standard auch so genutzt werden.</p>
<p>Auf unserer Agentur-Website haben wir einen ausführlichen Beitrag erstellt, der erklärt, wie man eine <a href="https://elsenmedia.com/rsl-datei-erstellen-und-in-website-einbinden/#">RSL-Datei in Websites und WordPress einbindet</a>.</p>
<h3>Was der RSL Standard für KI-Suche tatsächlich regelt</h3>
<p>Der <strong>RSL Standard für KI-Suche</strong> ist als deklaratives Regelwerk konzipiert, das KI-Systemen klare Nutzungsgrenzen signalisiert. Im Fokus steht nicht der einzelne Bot oder AI-Agent, sondern die Art der Nutzung von Inhalten. Organisationen können differenzieren, ob Inhalte etwa:</p>
<ul>
<li>für klassische <strong>Suchindizes</strong> genutzt werden dürfen,</li>
<li>in <strong>KI-generierten Antworten</strong> oder Zusammenfassungen erscheinen dürfen,</li>
<li>für <strong>Trainings- oder Finetuning-Zwecke</strong> ausgeschlossen sind,</li>
<li>nur unter bestimmten <strong>Bedingungen</strong> weiterverarbeitet werden dürfen.</li>
</ul>
<p>Damit entsteht erstmals eine <strong>technische Sprache</strong> für Content-Governance im KI-Kontext. Wichtig ist jedoch: RSL ist kein rechtlicher Zwangsmechanismus. Er entfaltet seine Wirkung nur dort, wo KI-Anbieter ihn respektieren. Genau hier beginnt die strategische Dimension für Management und Technologieverantwortliche.</p>
<h3>Strategische Auswirkungen für Unternehmen, Plattformen und Behörden</h3>
<p>Für Unternehmen mit wissensbasierten Geschäftsmodellen (z.B. Beratung, Medien, Software, Industrie, Forschung, Archivierung von Webinhalten) wird RSL 1.0 zu einem strategischen Steuerungsinstrument. Inhalte sind nicht mehr nur Marketing-Asset, sondern Trainings- und Wissensquelle für KI-Systeme Dritter. Wer hier keine klare Position bezieht, überlässt anderen die Wertschöpfung und verschenkt so wertvolles Potential für mehr Sichtbarkeit durch den RSL Standard!</p>
<p>Für Tech Leads bedeutet RSL zusätzlichen Abstimmungsbedarf zwischen Content, IT, Recht und Produkt. Es reicht nicht, den Standard technisch umzusetzen, entscheidend ist die vorgelagerte Frage: <strong>Welche Inhalte wollen wir bewusst für KI freigeben, und welche nicht?</strong></p>
<p>Behörden wiederum erhalten mit RSL ein Instrument, um <strong>Informationsangebote</strong> kontrolliert zugänglich zu machen, ohne dass amtliche Inhalte ungefiltert in KI-Antwortsystemen landen. Gerade im Kontext von Neutralität, Haftung und öffentlicher Kommunikation kann RSL helfen, klare digitale Leitplanken zu setzen.</p>
<h3>Bedeutung für Governance, Risk und Compliance</h3>
<p>Aus <strong>Governance-Sicht</strong> zwingt RSL Organisationen zu klaren Entscheidungen. Content-Freigaben für KI sind keine technische Detailfrage, sondern Management-Entscheidungen mit Auswirkungen auf IP, Reputation und Wettbewerbsfähigkeit.  Im <strong>Risiko-Management</strong> verschiebt sich der Fokus: Das Risiko liegt nicht mehr nur im unautorisierten Zugriff, sondern in der <strong>ungewollten semantischen Nutzung</strong> von Inhalten. RSL kann Risiken reduzieren, ersetzt aber keine übergeordnete KI- und Datenstrategie und schon gar nicht den Schutz sensibler Daten, die innerhalb eines Website-Ökosystems gespeichert sind.</p>
<p>Für die <strong>Compliance</strong> stellt sich die Frage der Nachvollziehbarkeit: Wie dokumentieren Organisationen ihre RSL-Regeln? Wie überwachen sie deren Einhaltung? Und wie integrieren sie den Standard in bestehende Datenschutz-, IP- und KI-Governance-Strukturen? RSL ist freiwillig, deshalb braucht es klare interne Prozesse. Gerne unterstützen wir Sie bei der <a href="https://elsengrc.com/contact/">Einführung passender Governance-Frameworks</a>.</p>
<h3>Beratung zum RSL Standard und KI-Suche</h3>
<p>Elsen GRC unterstützt Unternehmen, Tech-Organisationen und Behörden dabei, den <strong>RSL Standard für KI-Suche, die Indexierung und Limitierung für LLM-Verarbeitung</strong> strategisch sinnvoll einzuordnen und umzusetzen. Im Fokus steht nicht die reine Technik, sondern die Verbindung von Urheber- und Nutzungsrechten, Content-Strategie, KI-Governance, Risiko-Management und Compliance.</p>
<p>Wir begleiten Management-Teams, Redaktionen und Content-Ersteller bei der <strong>Entscheidung</strong>, welche <strong>Inhalte für KI-Systeme freigegeben</strong> werden sollten, entwickeln mit Ihnen klare <strong>Content- und KI-Policies</strong> und unterstützen bei der Integration von RSL in bestehende Governance- und Kontrollmodelle. Wir führen auch konkrete <a href="https://elsengrc.com/ki-risiko-check/">Risiko-Checks für den Einsatz von KI</a> durch. Ziel ist es, digitale Sichtbarkeit und Innovationsfähigkeit der eigenen Website, Inhalte und Organisation zu erhalten, ohne die Kontrolle über die eigenen Inhalte und Risiken im KI-Zeitalter zu verlieren.</p>
<p>Melden Sie sich gerne für ein <a href="https://elsengrc.com/contact/">unverbindliches Erstgespräch</a>.</p>
<hr />
<p>Foto: Screenshot / rslstandard.org</p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.heise.de/news/RSL-1-0-Standard-soll-Verwendung-von-Inhalten-regeln-11111422.html">RSL 1.0: Neuer Standard zur Regelung der KI-Nutzung von Inhalten – heise online</a></li>
<li><a href="https://rslstandard.org/">Responsible Search Language (RSL) – offizieller Standard</a></li>
</ul>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/rsl-standard-fuer-ki-suche/">RSL Standard für KI-Suche: Neuer Ordnungsrahmen für Internet-Inhalte</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/rsl-standard-fuer-ki-suche/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Streit um KI-Urheberrecht eskaliert: OpenAI muss 20 Millionen Chatprotokolle offenlegen</title>
		<link>https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/</link>
					<comments>https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/#respond</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Tue, 09 Dec 2025 16:00:06 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Urheberrecht]]></category>
		<category><![CDATA[USA]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1095</guid>

					<description><![CDATA[<p>Der Beitrag <a href="https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/">Streit um KI-Urheberrecht eskaliert: OpenAI muss 20 Millionen Chatprotokolle offenlegen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[
		<div id="fws_69ddb59927f76"  data-column-margin="default" data-midnight="dark"  class="wpb_row vc_row-fluid vc_row top-level"  style="padding-top: 0px; padding-bottom: 0px; "><div class="row-bg-wrap" data-bg-animation="none" data-bg-animation-delay="" data-bg-overlay="false"><div class="inner-wrap row-bg-layer" ><div class="row-bg viewport-desktop"  style=""></div></div></div><div class="row_col_wrap_12 col span_12 dark left">
	<div  class="vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone "  data-padding-pos="all" data-has-bg-color="false" data-bg-color="" data-bg-opacity="1" data-animation="" data-delay="0" >
		<div class="vc_column-inner" >
			<div class="wpb_wrapper">
				
<div class="wpb_text_column wpb_content_element " >
	<div class="wpb_wrapper">
		<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - Streit um KI-Urheberrecht" /></p>
<h3>Executive Summary: Streit um KI-Urheberrecht &#8211; OpenAI muss Chatprotokolle offenlegen</h3>
<p>Der aktuelle <strong>Streit um KI-Urheberrecht</strong> zwischen der <a href="https://www.nytimes.com/">New York Times</a> (NYT) und <a href="https://openai.com/de-DE/">OpenAI</a> erreicht eine neue Eskalationsstufe: Ein US-Bundesgericht verpflichtet OpenAI, rund <strong>20 Millionen anonymisierte Chatprotokolle (von ChatGPT-Nutzern)</strong> an die NYT herauszugeben. Die Protokolle stammen aus einer zufälligen Stichprobe von Consumer-Chats zwischen Dezember 2022 und November 2024 und sollen belegen, ob ChatGPT urheberrechtlich geschützte Inhalte der NYT im Rahmen von Nutzeranfragen reproduziert hat. Laut Gericht sollen die Daten „de-identifiziert“ werden, was der Entfernung etwa von Namen, E-Mail Adressen oder sonstigen personenbezogenen Daten beschreibt. Allerdings  ist eine De-Identifizierung nicht das Gleiche wie eine &#8222;Anonymisierung&#8220;. <strong>OpenAI warnt daher vor erheblichen Eingriffen in die Privatsphäre der Nutzer</strong>, da der Kontext Rückschlüsse auf die verarbeiteten Daten gewähren könnte.</p>
</div>
<p>Für<strong> Governance, Risk und Compliance</strong> (GRC) stellt sich damit eine <strong>zentrale Frage</strong>: Können wir uns darauf verlassen, dass Chatprotokolle von LLM-Anbietern  tatsächlich ausreichend anonymisiert sind? Wie können wir verhindern, dass diese im Rahmen von Gerichtsprozessen herausgegeben werden müssen? Und wie erfahren Organisationen, ob sensible oder Geschäftsinformationen oder Inhalte ihrer Mitarbeitenden in solchen Datenpools landen, wenn der Streit um KI-Urheberrecht vor Gericht ausgetragen wird? Steigen wir ein.</p>
<h3>Hintergrund: Streit um KI-Urheberrecht und Offenlegung von Chatprotokollen</h3>
<p>Im Kern des aktuellen <strong>Streits um KI-Urheberrecht</strong> steht der Vorwurf der NYT, dass OpenAI journalistischen Inhalte des Magazins <strong>ohne Lizenz für das Training von KI-Modellen</strong> genutzt habe. Wie <a href="https://www.heise.de/news/KI-Modelle-New-York-Times-klagt-gegen-Perplexity-Meta-schliesst-Lizenzabkommen-11104846.html">heise online berichtet</a>, hat ein US-Gericht OpenAI nun <strong>verpflichtet</strong>, eine große Menge an Chatprotokollen offenzulegen, damit geprüft werden kann, ob ChatGPT Inhalte der NYT wortgleich oder in wesentlichen Teilen reproduziert hat. Die Richterin hält die Protokolle für prozessrelevant und sieht den Datenschutz durch eine vorherige Anonymisierung als ausreichend gewahrt. Bekanntlich sehen US-Instanzen aber kein vergleichbares Datenschutz-Niveau wie etwa nach <a href="https://elsengrc.com/wiki/c/dsgvo/">DSGVO-Standard</a>.</p>
<p>Laut <a href="https://the-decoder.de/openai-muss-20-millionen-chatgpt-chats-an-new-york-times-herausgeben/">The Decoder</a> handelt es sich um eine zufällig gezogene Stichprobe von <strong>20 Millionen ChatGPT-Unterhaltungen von Consumer-Nutzern</strong> aus dem Zeitraum Dezember 2022 bis November 2024. Ursprünglich hatte die NYT sogar die Herausgabe von rund 1,4 Milliarden Chats gefordert, konnte sich damit aber nicht gerichtlich durchsetzen. OpenAI hat gegen die Entscheidung Berufung eingelegt, muss die Daten nach derzeitigem Stand aber innerhalb eines engen Zeitfensters bereitstellen.</p>
<p>Parallel dazu weitet sich der <strong>Streit um KI-Urheberrecht</strong> aus: Die New York Times verklagt zusätzlich andere KI-Unternehmen wie <a href="https://www.perplexity.ai">Perplexity</a> wegen angeblich unlizenzierter Nutzung von Medieninhalten, während <a href="https://www.meta.com/">Meta</a> versucht, das Thema durch Lizenzabkommen mit Verlagen zu entschärfen. Es geht längst nicht mehr nur um einen Einzelfall, sondern um die grundsätzliche Frage, wie Medieninhalte in KI-Modellen genutzt werden dürfen &#8211; und welche Rolle dabei Nutzerdaten und Chatprotokolle spielen.</p>
<h3>Was wird bei Gerichten offengelegt und warum ist das GRC-relevant?</h3>
<p>Offiziell sollen die Chatprotokolle vor der Übergabe <strong>„de-identifiziert“</strong> werden: Klarnamen, direkte Identifikatoren und offensichtliche personenbezogene Daten sollen entfernt werden, bevor sie bei der NYT landen. Aus GRC-Perspektive ist damit jedoch nur ein Teil des Problems adressiert. In vielen Organisationen wurden und werden öffentliche KI-Dienste wie ChatGPT mit privaten Accounts genutzt &#8211; oft ohne klare Richtlinien, welche Inhalte eingegeben werden dürfen. Es existieren also in den wenigsten Fällen echte Policies in Unternehmen und Behörden, die den Umgang mit den Chatbots regeln.</p>
<p>Aber selbst wenn keine Namen mehr enthalten sind, können <strong>Kontexte und Kombinationen</strong> von Informationen weiterhin Rückschlüsse auf personenbezogene Daten oder Organisationsdaten zulassen: projekt- oder kundenspezifische Bezeichnungen, interne Produkt- oder Projektnamen, spezifische Branchenkonstellationen, Standorte, Fallbeschreibungen oder interne Strategiepapiere, die nicht unter die &#8222;De-Identifikation&#8220; fallen. Gerade in regulierten Bereichen (Gesundheitswesen, Finanzsektor, öffentliche Verwaltung) stellt sich die Frage, ob Mitarbeitende in den betroffenen Zeiträumen vertrauliche Inhalte in Consumer-Konten von ChatGPT eingetragen haben und ob diese Inhalte jetzt Teil einer anonymisierten Datenbasis werden, die im Rahmen des <strong>Streits um KI-Urheberrecht</strong> von der Times ausgewertet wird.</p>
<p>Hinzu kommt: Es existiert <strong>keine einfache Möglichkeit für Organisationen, festzustellen, ob sie konkret betroffen sind</strong>. Die Stichprobe ist zufällig, die Daten sind weitgehend anonymisiert, direkte Benachrichtigungen der Nutzer oder Organisationen sind nicht vorgesehen. Aus Sicht von Governance, Risk und Compliance geht es daher weniger um die Frage, ob man im Einzelfall „drin“ ist, sondern darum, ob das Risiko, in solchen Verfahren zu landen, überhaupt bewusst gesteuert oder eher zufällig in Kauf genommen wurde. Schließlich wird das nicht der letzte Streit um &#8222;KI-Urheberrechte&#8220; sein, der in Zukunft ausgetragen werden dürfte.</p>
<h3>Bedeutung für Governance, Risk und Compliance</h3>
<p>Der aktuelle <strong>Streit um KI-Urheberrecht</strong> zeigt deutlich, dass KI-Nutzung nicht nur ein Technik- oder Produktivitäts-Thema ist, sondern unmittelbar in den Verantwortungsbereich von Governance, Risk und Compliance fällt. Auf der Ebene der <strong>Governance</strong> benötigen Unternehmen und Behörden klare Richtlinien, wie externe KI-Dienste genutzt werden dürfen: Welche Datenarten sind erlaubt, welche sind tabu? Müssen Mitarbeitende zwingend Unternehmensaccounts mit kontrollierten Einstellungen nutzen? Wie werden Schatten-IT und „<a href="https://elsengrc.com/wiki/shadow-ai/">Shadow AI</a>“ verhindert, bei der Mitarbeitende eigenständig und ohne Freigabe Daten in öffentliche Modelle kopieren?</p>
<p>Auf der Ebene des <strong>Risiko-Managements</strong> muss bewertet werden, welche Folgen es haben kann, wenn <strong>sensible oder vertrauliche Inhalte in die Log- oder Trainingsdaten eines KI-Anbieters gelangen</strong>. Der vorliegende Fall zeigt, dass diese Daten später in völlig anderen Kontexten &#8211; etwa vor Gericht &#8211; wieder auftauchen können, selbst wenn sie formal anonymisiert sind. Das betrifft Geschäftsgeheimnisse ebenso wie Kunden- oder Mandanteninformationen, interne Strategien oder sicherheitsrelevante Abläufe. Auch was das im Kontext der Löschpflichten bzw. dem Recht auf Vergessenwerden nach DSGVO in Art. 17 bedeutet, ist schwer einzuordnen.</p>
<p>Für die <strong>Compliance</strong> bedeutet der Fall, dass Verarbeitungsverzeichnisse, Auftragsverarbeitungsverträge (DPAs), Datenschutz-Folgenabschätzungen (DSFAs) und <strong>interne Richtlinien zum Einsatz externer KI-Dienste um genau diese Szenarien erweitert werden müssen</strong>: Was passiert mit unseren Daten, wenn der Anbieter aufgrund eines gerichtlichen Beschlusses zur Offenlegung gezwungen wird? Welche Schutzmechanismen (z. B. Logging-Einstellungen, Speicherdauer, Opt-out-Optionen) haben wir technisch und vertraglich vereinbart? Und wie werden diese heute praktisch eingehalten?<a href="https://elsengrc.com/contact/"> Gerne berate ich Sie hier</a>.</p>
<h3>Beratung zum Einsatz von KI-Systemen und LLMs durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen, SaaS-Anbieter und Behörden dabei, den Einsatz von KI-Systemen wie ChatGPT und anderen Large Language Models <strong>GRC-sicher zu gestalten</strong>. Dazu gehören die Entwicklung und Einführung klarer KI-Nutzungsrichtlinien (AI Policies), die Definition zulässiger und unzulässiger Datenkategorien, der <a href="https://elsengrc.com/ki-risiko-check/">Risiko-Check beim Einsatz von KI</a>, sowie die Gestaltung von Governance-Strukturen, mit denen Shadow-AI und unkontrollierte Nutzung externer KI-Dienste reduziert werden.</p>
<p>Gemeinsam mit Ihnen analysiere ich, welche Daten heute bereits in externe Modelle fließen, welche Risiken daraus entstehen und wie diese <strong>vertraglich, organisatorisch und technisch</strong> abgesichert werden können &#8211; etwa durch den Einsatz kontrollierter Unternehmenszugänge, restriktiver Logging-Policies, EU- oder On-Prem-Hosting-Varianten. Ziel ist es, die Vorteile moderner KI sinnvoll zu nutzen, ohne die Organisation im <strong>Streit um KI-Urheberrecht</strong> oder bei Datenschutz- und Sicherheitsfragen unnötig angreifbar zu machen.</p>
<p>Melden Sie sich gerne für ein <a href="https://elsengrc.com/contact/">unverbindliches Erstgespräch</a>.</p>
<hr />
<p>Foto: Rafael Hoyos Weht &#8211; Unsplash.com</p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.heise.de/news/KI-Modelle-New-York-Times-klagt-gegen-Perplexity-Meta-schliesst-Lizenzabkommen-11104846.html">KI-Urheberrechtsstreit eskaliert: OpenAI muss Chatprotokolle offenlegen – heise online</a></li>
<li><a href="https://the-decoder.de/openai-muss-20-millionen-chatgpt-chats-an-new-york-times-herausgeben/">OpenAI muss 20 Millionen ChatGPT-Chats an New York Times herausgeben – The Decoder</a></li>
</ul>
	</div>
</div>




			</div> 
		</div>
	</div> 
</div></div>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/">Streit um KI-Urheberrecht eskaliert: OpenAI muss 20 Millionen Chatprotokolle offenlegen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Vodafone Ausstieg aus öffentlichen Internetknoten: Was das für Governance, Risk und Compliance bedeutet</title>
		<link>https://elsengrc.com/journal/news/vodafone-ausstieg-aus-oeffentlichen-internetknoten/</link>
					<comments>https://elsengrc.com/journal/news/vodafone-ausstieg-aus-oeffentlichen-internetknoten/#respond</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Wed, 03 Dec 2025 23:02:18 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Peering]]></category>
		<category><![CDATA[Vodafone]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1083</guid>

					<description><![CDATA[<p>Vodafone hat in einer Pressemitteilung angekündigt, sich vollständig aus dem öffentlichen Peering zurückzuziehen. Der Vodafone Ausstieg betrifft unter anderem den führenden deutschen Internetknoten DE‑CIX. Künftig soll das Peering nicht mehr...</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/vodafone-ausstieg-aus-oeffentlichen-internetknoten/">Vodafone Ausstieg aus öffentlichen Internetknoten: Was das für Governance, Risk und Compliance bedeutet</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>Vodafone</strong> hat in einer <a href="https://www.vodafone.com/news/technology/vodafone-selects-inter-link-to-enhance-interconnection-with-other-internet-service-providers">Pressemitteilung</a> angekündigt, sich <strong>vollständig aus dem öffentlichen Peering zurückzuziehen</strong>. Der Vodafone Ausstieg betrifft unter anderem den führenden deutschen Internetknoten DE‑CIX. Künftig soll das Peering nicht mehr über neutrale, öffentliche Internetknoten laufen, sondern über einen privaten Anbieter – Inter.link GmbH mit Sitz in Berlin.</p>
<p>Vodafone begründet den Schritt mit erwarteten Vorteilen: <strong>geringere Latenzen, höhere Resilienz und niedrigere Kosten</strong>. Für Partner und Inhalteanbieter, die bisher über öffentliche Knoten peerten, bedeutet der Wechsel jedoch zusätzlichen Aufwand für Dokumentation, Prüfung und Verwaltung und künftig unter Umständen direkte Peering-Gebühren. Und ob die vermeintlichen Vorteile wirklich &#8222;bis zum Endkunden&#8220; durchkommen, wird sich noch zeigen.</p>
<h3>Mögliche Auswirkungen auf Unternehmen und Behörden</h3>
<p>Der Rückzug von Vodafone aus dem öffentlichen Peering hat mehrere praktische Konsequenzen:</p>
<ul>
<li><strong>Netzwerkabhängigkeiten und Resilienz:</strong> Unternehmen, die bisher auf öffentliches Peering gesetzt haben (z. B. Hosting, Medien, Streaming, IT-Service), müssen prüfen, ob der neue private Pfad die gleiche Stabilität, Performance und Redundanz bietet wie zuvor.</li>
<li><strong>Kostenstruktur &amp; Vertragspartner:</strong> Für Partner, die künftig über private Peering-Provider angebunden werden, können neue Gebühren anfallen. Das kann Budgets, Preiskalkulation und Serviceverträge betreffen &#8211; gerade für kleinere Anbieter oder Behörden mit begrenztem IT-Budget.</li>
<li><strong>Compliance und Transparenz:</strong> Der Austausch von Daten über privat gehostete oder vernetzte Infrastrukturen erfordert neue Prüfungen hinsichtlich Datenschutz, Datensouveränität und Auditierbarkeit – insbesondere, wenn sensitive oder personenbezogene Daten betroffen sind.</li>
<li><strong>Risikomanagement &amp; Verfügbarkeit:</strong> Ein einzelner privater Anbieter wird zur potenziellen Single Point of Failure. Für Unternehmen und Behörden gilt es, resilientere Architektur, Failover-Szenarien und unabhängige Backup-Verbindungen zu prüfen.</li>
</ul>
<p>Insbesondere Dienstleister, Cloud-Hoster, SaaS-Anbieter und Behörden, die auf stabile, redundante Infrastruktur angewiesen sind, sollten ihre Risiko- und Compliance-Analyse entsprechend aktualisieren.</p>
<h3>Was der Vodafone Ausstieg für Governance, Risk &amp; Compliance bedeutet</h3>
<p>Der Wechsel hat direkte GRC-Relevanz:</p>
<ul>
<li><strong>Governance</strong> muss Transparenz über Netzwerk- und Infrastrukturanbieter stellen: Wer verantwortet Routing, Verfügbarkeit und Datenschutz beim neuen Peering-Partner?</li>
<li><strong>Risiko</strong> steigt: mit neuem Anbieter, privatem Peering und veränderter Netzstruktur verändern sich Angriffsflächen, Ausfallrisiken und Abhängigkeiten.</li>
<li><strong>Compliance</strong>: Verträge, Datenschutzanforderungen, Datenflüsse und Auditfähigkeit müssen neu bewertet werden, insbesondere bei sensiblen oder behördlichen Daten. Welche Verträge müssen erneuert werden? Wie kann sichergestellt werden, dass die eigenen vertraglichen Pflichten erfüllt werden?</li>
</ul>
<p>Unternehmen, die bisher auf <strong>öffentliches Peering</strong> vertraut haben, stehen vor potenziell erhöhtem Aufwand bei Sicherstellung von Datenschutz (z.B. nach <a href="https://elsengrc.com/wiki/c/dsgvo/">DSGVO</a>), Verfügbarkeit und Nachvollziehbarkeit, da konkrete Dokumentationspflichten und Neubewertungen von bestehenden Verträgen und Services durch den Vodafone Ausstieg aus dem Peering zu befürchten sind.</p>
<h3>Einschätzung</h3>
<p>Der Schritt von Vodafone mag ja aus wirtschaftlicher Sicht plausibel sein, aber für viele Beteiligte führt er zu <strong>erhöhtem Risiko und unmittelbarer Unsicherheit</strong>. Gerade für GRC-Verantwortliche, Compliance-Teams und Betreiber kritischer Infrastrukturen kann dieser Wandel einen Anlass darstellen, Netzarchitektur, Vertragsbedingungen und Schutzmaßnahmen noch einmal gründlich zu überprüfen!</p>
<p><strong>Öffentliche Internetknoten</strong> waren bislang ein <strong>neutrales Rückgrat der Vernetzung.</strong> Der Rückzug eines großen Anbieters kann dazu führen, dass Infrastruktur-Neutralität schwächer wird und private Anbieter an Bedeutung gewinnen &#8211; mit allen Konsequenzen für Kontrolle, Transparenz und Risiko.</p>
<h3>Beratung durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen, Behörden und Dienstleister darin, ihre Infrastruktur- und Risikoarchitektur neu zu bewerten: Wir analysieren Peering-Änderungen, bewerten Auswirkungen auf Verfügbarkeit und Compliance, prüfen Datenflüsse und Abhängigkeiten, und unterstützen bei der Definition sicherer Architektur- und Governance-Standards.</p>
<p>Damit sichern Sie Transparenz und Compliance &#8211; auch in einem sich schnell wandelnden Netzumfeld. <a href="https://elsengrc.com/contact/">Schreiben Sie uns für eine unverbindliche Erstberatung</a>.</p>
<hr />
<p>Bild: © Matthew Buchanan &#8211; Unsplash.com</p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.vodafone.com/news/technology/vodafone-selects-inter-link-to-enhance-interconnection-with-other-internet-service-providers">Offizielle Vodafone Pressemitteilung</a></li>
<li><a href="https://www.heise.de/news/Vodafone-verlaesst-oeffentliche-Internetknoten-11068819.html">Heise.de &#8211; Vodafone verlässt öffentliche Internetknoten</a></li>
<li><a href="https://www.it-administrator.de/vodafone-peering-interlink">IT-Administrator.de: Vodafone-Peering nur noch über Inter.link</a></li>
</ul>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/vodafone-ausstieg-aus-oeffentlichen-internetknoten/">Vodafone Ausstieg aus öffentlichen Internetknoten: Was das für Governance, Risk und Compliance bedeutet</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/vodafone-ausstieg-aus-oeffentlichen-internetknoten/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Cloud-Verbot für Schweizer Behörden: Schluss mit Microsoft 365, AWS und Google Cloud?</title>
		<link>https://elsengrc.com/journal/news/cloud-verbot-fuer-schweizer-behoerden/</link>
					<comments>https://elsengrc.com/journal/news/cloud-verbot-fuer-schweizer-behoerden/#respond</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Sun, 30 Nov 2025 19:38:47 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[AWS]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[Microsoft]]></category>
		<category><![CDATA[Privatim]]></category>
		<category><![CDATA[Schweiz]]></category>
		<category><![CDATA[US Cloud Act]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1067</guid>

					<description><![CDATA[<p>Der Beitrag <a href="https://elsengrc.com/journal/news/cloud-verbot-fuer-schweizer-behoerden/">Cloud-Verbot für Schweizer Behörden: Schluss mit Microsoft 365, AWS und Google Cloud?</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[
		<div id="fws_69ddb5992a23b"  data-column-margin="default" data-midnight="dark"  class="wpb_row vc_row-fluid vc_row"  style="padding-top: 0px; padding-bottom: 0px; "><div class="row-bg-wrap" data-bg-animation="none" data-bg-animation-delay="" data-bg-overlay="false"><div class="inner-wrap row-bg-layer" ><div class="row-bg viewport-desktop"  style=""></div></div></div><div class="row_col_wrap_12 col span_12 dark left">
	<div  class="vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone "  data-padding-pos="all" data-has-bg-color="false" data-bg-color="" data-bg-opacity="1" data-animation="" data-delay="0" >
		<div class="vc_column-inner" >
			<div class="wpb_wrapper">
				
<div class="wpb_text_column wpb_content_element " >
	<div class="wpb_wrapper">
		<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - DSGVO Änderungen" /></p>
<h3>Executive Summary: Cloud-Verbot für Schweizer Behörden?</h3>
<p>Lange hat&#8217;s gedauert, aber nun haben auch unsere Schweizer Nachbarn ein Machtwort gesprochen: Die Schweizer Datenschutzkonferenz <a href="https://www.privatim.ch/de/">Privatim</a> hat am 24. November  eine <a href="https://www.privatim.ch/de/privatim-verabschiedet-resolution-zu-internationalen-cloud-losungen/">weitreichende Resolution</a> verabschiedet, die den <strong>Einsatz internationaler Cloud- und SaaS-Dienste für Behörden massiv einschränkt</strong>. Dienste wie <a href="https://www.microsoft.com/de-de/microsoft-365">Microsoft 365</a>, Amazon <a href="https://aws.amazon.com/de/">AWS</a> oder <a href="https://cloud.google.com/">Google Cloud</a> gelten für viele behördliche Datenverarbeitungen künftig als unzulässig, wenn die Daten nicht vollständig und vor allem clientseitig verschlüsselt werden, und zwar so, dass der Anbieter keinen Zugriff auf die Schlüssel hat. Ohne diese technische Voraussetzung dürfen die meisten behördlichen Datenbestände nicht mehr in einer solchen Cloud verarbeitet werden. Laut Privatim ist beispielsweise der US-Cloud Act ein nicht kontrollierbares Risiko für Schweizer Behörden, da <strong>US-Anbieter verpflichtet sein könnten</strong>, Daten ihrer Kunden <strong>an US-Behörden herauszugeben</strong>, ohne die entsprechende internationale Rechtshilfe einzuhalten. Dies gilt dann auch für Daten, die in <strong>Schweizer Rechenzentren</strong> gespeichert sind.</p>
</div>
<p>Die<strong> Schweizer Behörden sollen Cloud-Dienste daher nur noch nutzen</strong>, wenn die Verarbeitung mit einer eigenen, vorgelagerten Verschlüsselung ausgestattet ist und der <strong>Anbieter keinerlei Zugriffsmöglichkeiten auf Daten oder Schlüssel</strong> erhält. Ist das nicht sichergestellt, bleibt ein Dienst wie Microsoft 365 oder AWS lediglich für unkritische Prozesse oder als reiner Speicherort ohne vertrauliche Inhalte denkbar. Wie aber ein Betrieb von etwa Microsoft Teams oder Google Cloud Diensten mit vorgelagerter Verschlüsselung aussehen soll, ist natürlich schwer vorstellbar.</p>
<h3>Wesentliche Gründe: Cloud-Verbot für Schweiz Behörden</h3>
<p>Die Datenschutzbeauftragten kritisieren, dass internationale <strong>Cloud-Anbieter strukturell nicht gewährleisten können, dass behördliche Daten unter schweizerischer Hoheit bleiben</strong>. Besonders problematisch ist, dass weder bei Microsoft 365 noch bei anderen großen Public-Cloud-Anbietern eine echte <strong>Ende-zu-Ende-Verschlüsselung</strong> mit vollständiger <strong>Schlüsselhoheit des Kunden</strong> gewährleistet ist. Hinzu kommen komplexe Anbieterstrukturen, mangelnde Transparenz über interne Zugriffsmöglichkeiten sowie die extraterritoriale Anwendung ausländischer Gesetze wie dem US Cloud Act, durch den US-Behörden unter bestimmten Umständen Zugriff auf Daten verlangen können, selbst wenn diese auf Servern in der Schweiz lagern. Für Schweizer Behörden widerspricht dies den Anforderungen an Geheimhaltung, Amtsgeheimnis und Informationsschutz.</p>
<p>Die Datenschutzkonferenz betont außerdem, dass die Prüfung globaler Anbieter kaum zuverlässig möglich sei und dass die Risiken bei hoheitlichen oder sensiblen Daten deutlich höher sind als in rein privaten Nutzungskontexten. Dadurch entstehe ein<strong> Sicherheits- und Vertrauensdefizit</strong>, das ein <strong>breites Cloud-Verbot für Schweizer Behörden</strong> notwendig gemacht habe.</p>
<h3>Auswirkungen auf Behörden und Unternehmen in der Schweiz</h3>
<p>Behörden in der Schweiz müssen nach dieser umfangreichen Resolution ihre <strong>Cloud-Strategien neu ausrichten</strong>. Viele bisher eingesetzte Public-Cloud-Dienste sind für sensible Daten künftig nicht mehr zulässig, was neue Anforderungen an Infrastruktur, Hosting-Modelle und IT-Architekturen mit sich bringt.<strong> Private Clouds, lokal gehostete Lösungen oder Modelle mit voller Schlüsselhoheit rücken stärker in den Fokus.</strong> Für Unternehmen, die mit Behörden zusammenarbeiten oder Dienstleistungen mit personenbezogenen oder vertraulichen Daten anbieten, steigen die Anforderungen an Hosting, Architektur und Compliance also drastisch, zumindest, wenn sie mit den Schweizer Behörden weiterhin zusammenarbeiten möchten. Was das für Governance, Risk und Compliance bedeutet, schauen wir uns gleich noch an.</p>
<p>Die Entscheidung zeigt zudem, dass der Trend in Richtung stärkerer staatlicher Kontrolle, Datenhoheit und restriktiverer Nutzung globaler Plattformdienste geht. Für alle Organisationen, die in regulatorischen oder datensensiblen Umfeldern arbeiten, werden Souveränität, Verschlüsselungsarchitektur und transparente Datenflüsse zu zentralen Kriterien.</p>
<h3>Bedeutung für Governance, Risk und Compliance</h3>
<p>Für Governance, Risk und Compliance entsteht durch das Cloud-Verbot eine deutlich höhere Verbindlichkeit für alle Unternehmen, die mit Schweizer Behörden zusammenarbeiten oder Dienstleistungen mit personenbezogenen, vertraulichen oder sicherheitsrelevanten Daten erbringen. Sie müssen <strong>nachweisen</strong> können, dass ihre eigenen Cloud- und IT-Architekturen den <strong>gleichen Anforderungen genügen</strong> wie jene der Behörden selbst: <strong>Datenhoheit, überprüfbare Verschlüsselung, klare Schlüsselverwaltung, nachvollziehbare Zugriffsprozesse und vollständige Transparenz der Datenflüsse</strong>.</p>
<p>Gleichzeitig steigen die<strong> Risiken bei Ausschreibungen</strong>, <strong>Audits</strong> und <strong>Vertragsprüfungen</strong>, weil jede nicht souveräne Cloud-Komponente zum <strong>Ausschlusskriterium</strong> werden kann. Unternehmen benötigen daher robuste interne Governance-Strukturen, eine klare Risikoanalyse für alle eingesetzten Dienste sowie <strong>dokumentierte Compliance-Nachweise</strong>, um weiterhin rechts- und auftragsfähig im Schweizer Behördenumfeld zu bleiben.</p>
<h3>Beratung zum Einsatz von Cloud- und SaaS-Software in der Schweiz durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen, öffentliche Stellen und SaaS-Anbieter in der Schweiz beim Aufbau sicherer, <strong>compliance-konformer Cloud-Strategien und Cloud-Implementierungen</strong>. Dazu gehören die Bewertung der bestehenden Cloud-Architektur, die Entwicklung datenschutzkonformer Alternativen, die Prüfung von Verschlüsselungs- und Schlüsselhoheitsmodellen sowie die Begleitung bei Migration, Governance, Risikoanalyse und technischen Schutzmaßnahmen. Ziel ist es, eine tragfähige, rechtssichere und zukunftsfähige IT-Umgebung aufzubauen, die den schweizerischen Datenschutzanforderungen entspricht. Melden Sie sich gerne für ein <a href="https://elsengrc.com/contact/">unverbindliches Erstgespräch</a>.</p>
<hr />
<p>Foto: Janosch Diggelmann &#8211; Unsplash</p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.privatim.ch/de/privatim-verabschiedet-resolution-zu-internationalen-cloud-losungen/">Schweizer Datenschutzkonferenz Privatim</a></li>
<li><a href="https://www.heise.de/news/Schweiz-Datenschuetzer-verhaengen-breites-Cloud-Verbot-fuer-Behoerden-11093438.html">Schweiz: Datenschützer empfehlen breites Cloud-Verbot für Behörden &#8211; Heise.de</a></li>
</ul>
	</div>
</div>




			</div> 
		</div>
	</div> 
</div></div>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/cloud-verbot-fuer-schweizer-behoerden/">Cloud-Verbot für Schweizer Behörden: Schluss mit Microsoft 365, AWS und Google Cloud?</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/cloud-verbot-fuer-schweizer-behoerden/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Angeblicher KI-Cyberangriff mit Claude? Was der Fall für Risiko-Management wirklich bedeutet</title>
		<link>https://elsengrc.com/journal/news/angeblicher-ki-cyberangriff-mit-claude/</link>
					<comments>https://elsengrc.com/journal/news/angeblicher-ki-cyberangriff-mit-claude/#respond</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Wed, 19 Nov 2025 08:27:19 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Risk]]></category>
		<category><![CDATA[Claude]]></category>
		<category><![CDATA[Cybersecurity]]></category>
		<category><![CDATA[IT-Sicherheit]]></category>
		<category><![CDATA[KI-Cyberangriff]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1002</guid>

					<description><![CDATA[<p>Der Beitrag <a href="https://elsengrc.com/journal/news/angeblicher-ki-cyberangriff-mit-claude/">Angeblicher KI-Cyberangriff mit Claude? Was der Fall für Risiko-Management wirklich bedeutet</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[
		<div id="fws_69ddb5992b682"  data-column-margin="default" data-midnight="dark"  class="wpb_row vc_row-fluid vc_row"  style="padding-top: 0px; padding-bottom: 0px; "><div class="row-bg-wrap" data-bg-animation="none" data-bg-animation-delay="" data-bg-overlay="false"><div class="inner-wrap row-bg-layer" ><div class="row-bg viewport-desktop"  style=""></div></div></div><div class="row_col_wrap_12 col span_12 dark left">
	<div  class="vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone "  data-padding-pos="all" data-has-bg-color="false" data-bg-color="" data-bg-opacity="1" data-animation="" data-delay="0" >
		<div class="vc_column-inner" >
			<div class="wpb_wrapper">
				
<div class="wpb_text_column wpb_content_element " >
	<div class="wpb_wrapper">
		<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - DSGVO Änderungen" /></p>
<h3>Executive Summary: Angeblicher KI-Cyberangriff mit Claude?</h3>
<p><a href="https://www.anthropic.com/news/disrupting-AI-espionage">Anthropic</a> hat berichtet, eine mutmaßlich <strong>staatlich unterstützte Hackergruppe</strong> habe einen <strong>weitgehend autonomen KI-Cyberangriff mit Claude</strong> durchgeführt. Laut Veröffentlichung soll das Modell große Teile der Operation selbstständig ausgeführt haben &#8211;  Reconnaissance (Aufklärung), Schwachstellenscans, Code-Generierung und die <strong>Orchestrierung mehrstufiger Angriffe</strong>. Die Darstellung stellt auf den ersten Blick einen neuen <strong>Eskalationspunkt</strong> im Bereich der KI-basierten Cyberbedrohungen dar. Gleichzeitig gibt es Kritik an Methodik und Transparenz: <a href="https://www.heise.de/news/Autonomer-KI-Cyberangriff-Zweifel-an-Anthropics-Untersuchung-11080212.html?wt_mc=nl.red.ho.ho-nl-ki-update.2025-11-17.ansprache.ansprache">heise</a> und mehrere Sicherheitsexperten bezweifeln zentrale Annahmen, da Beweise, IoCs und unabhängige Validierungen von anderen Experten fehlen. Also alles nur Marketing? Dennoch bleibt die strategische <strong>Botschaft deutlich</strong>: KI kann &#8211; unabhängig vom Wahrheitsgehalt des konkreten Falls &#8211; zum unmittelbaren <strong>Angriffsverstärker</strong> werden. Das <strong>Risiko-Management</strong> muss genau darauf reagieren und sich fragen, wie autonom Cyberoperationen künftig ablaufen können, welche eigenen Systeme dafür anfällig wären, und wie Kontrollmechanismen angepasst werden müssen.</p>
</div>
	</div>
</div>




			</div> 
		</div>
	</div> 
</div></div>
		<div id="fws_69ddb5992be19"  data-column-margin="default" data-midnight="dark"  class="wpb_row vc_row-fluid vc_row"  style="padding-top: 0px; padding-bottom: 0px; "><div class="row-bg-wrap" data-bg-animation="none" data-bg-animation-delay="" data-bg-overlay="false"><div class="inner-wrap row-bg-layer" ><div class="row-bg viewport-desktop"  style=""></div></div></div><div class="row_col_wrap_12 col span_12 dark left">
	<div  class="vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone "  data-padding-pos="all" data-has-bg-color="false" data-bg-color="" data-bg-opacity="1" data-animation="" data-delay="0" >
		<div class="vc_column-inner" >
			<div class="wpb_wrapper">
				
<div class="wpb_text_column wpb_content_element " >
	<div class="wpb_wrapper">
		<h3>Hintergrund und Einordnung</h3>
<p>Der <a href="https://www.anthropic.com/news/disrupting-AI-espionage">Bericht von Anthropic</a> beschreibt einen Angriff, der durch die vermutlich staatlich finanzierte Gruppe &#8222;<strong>GTG-1002&#8243;</strong> ausgeführt wurde. Die Angreifer sollen <strong>Zugriff auf Claude Code</strong> erhalten und ihn genutzt haben, um große Teile der Cyberoperation automatisch zu koordinieren. Dazu zählen das Auswerten öffentlich verfügbarer Informationen über Zielorganisationen, die Generierung von Angriffscodes, automatisierte Testläufe, das Erstellen neuer Exploit-Varianten und die schrittweise Ausweitung des Angriffs auf weitere Systeme. In der Darstellung von Anthropic übernahm die KI rund 80 bis 90 Prozent dieser Schritte ohne manuellen Eingriff, also quasi autonom, gesteuert über nur wenige High-Level-Prompts.</p>
<p><a href="https://www.heise.de/news/Autonomer-KI-Cyberangriff-Zweifel-an-Anthropics-Untersuchung-11080212.html?wt_mc=nl.red.ho.ho-nl-ki-update.2025-11-17.ansprache.ansprache">Heise stellt diese Darstellung allerdings infrage</a>. Laut mehreren Expert:innen fehlen konkrete technische Details, die notwendig wären, um die Analyse nachzuvollziehen. Es wurden weder technische Indikatoren für Kompromittierung noch nachvollziehbare Datenpunkte veröffentlicht, anhand derer nachvollziehbar wäre, wie autonom Claude tatsächlich agiert hat. Einige Fachleute bewerten den Bericht eher als <strong>Warnsignal</strong> denn als belastbares Ereignis: ein Szenario, das grundsätzlich möglich ist, dessen konkrete Ausgestaltung aber nicht zweifelsfrei belegt scheint.</p>
<p>Gerade diese Gemengelage &#8211; technisch plausibel, aber faktisch unklar &#8211; macht den Fall für das <strong>Risiko-Management</strong> so relevant. Unternehmen können es sich nicht leisten, auf vollständige Evidenz zu warten. Die entscheidende Frage lautet: Wie schnell können Angreifer KI-Modelle in reale Angriffsketten einbauen &#8211; und wie gut sind Organisationen darauf vorbereitet?</p>
<div id="attachment_1005" style="width: 2570px" class="wp-caption alignnone"><img decoding="async" aria-describedby="caption-attachment-1005" class="size-full wp-image-1005" src="https://elsengrc.com/docs/uploads/2025/11/KI-Cyberangriff-mit-Claude-scaled.webp" alt="Angeblicher KI-Cyberangriff mit Claude? Was der Fall für Risiko-Management wirklich bedeutet" width="2560" height="1905" srcset="https://elsengrc.com/docs/uploads/2025/11/KI-Cyberangriff-mit-Claude-scaled.webp 2560w, https://elsengrc.com/docs/uploads/2025/11/KI-Cyberangriff-mit-Claude-300x223.webp 300w, https://elsengrc.com/docs/uploads/2025/11/KI-Cyberangriff-mit-Claude-1024x762.webp 1024w, https://elsengrc.com/docs/uploads/2025/11/KI-Cyberangriff-mit-Claude-768x571.webp 768w, https://elsengrc.com/docs/uploads/2025/11/KI-Cyberangriff-mit-Claude-1536x1143.webp 1536w, https://elsengrc.com/docs/uploads/2025/11/KI-Cyberangriff-mit-Claude-2048x1524.webp 2048w" sizes="(max-width: 2560px) 100vw, 2560px" /><p id="caption-attachment-1005" class="wp-caption-text">Das Architektur-Diagramm des versuchten Angriffs laut Anthropic (Bild: © Anthropic)</p></div>
<h3>Auswirkungen auf Unternehmen und Behörden</h3>
<p>Für Unternehmen bedeutet der Fall vor allem eine <strong>Verschiebung der Bedrohungsrealität</strong>. KI-gestützte Werkzeuge ermöglichen eine deutlich höhere Geschwindigkeit, Skalierung und <strong>Variabilität von Cyber-Angriffen</strong>. Reconnaissance, Code-Erstellung und Exploit-Anpassung können in Sekunden erfolgen und in Varianten, die klassische Signatur- oder Mustererkennungen umgehen. Organisationen, die KI bereits intern einsetzen, schaffen darüber hinaus selbst neue Angriffsflächen: unzureichend abgesicherte Modelle, API-Zugänge, Prompt-Pipelines und interne Agentensysteme können missbraucht werden, wenn sie nicht klar überwacht und kontrolliert werden.</p>
<p>Für Behörden, kritische Infrastrukturen und öffentliche Einrichtungen entsteht ein zusätzlicher Handlungsdruck. Die Kombination aus politisch motivierten Akteuren und KI-gestützten Tools führt zu einer <strong>Bedrohungslage</strong>, die unmittelbare Auswirkungen auf demokratische, wirtschaftliche und administrative Prozesse haben kann. Die Aufklärung KI-gestützter Angriffe ist zudem schwieriger, weil Attribution, Log-Analyse und Beweisführung deutlich komplexer werden, wenn wesentliche Teile der Angriffskette nicht mehr direkt menschlich gesteuert sind oder nicht zusammenhängend protokolliert werden können.</p>
<p>Sowohl privatwirtschaftliche als auch öffentliche Organisationen müssen daher ihre bestehenden Sicherheitsarchitekturen auf KI-spezifische Risiken überprüfen: Welche Systeme könnten automatisiert ausgenutzt werden? Welche <strong>internen KI-Werkzeuge</strong> müssten stärker überwacht werden? Und wie schnell können <strong>Incident-Response-Prozesse</strong> reagieren, wenn die Angriffsgeschwindigkeit nicht mehr menschlich, sondern maschinell ist?</p>
<h3>Bedeutung für Governance, Risk &amp; Compliance</h3>
<p>Der Fall zeigt, dass Unternehmen<strong> nicht nur technische Sicherheitsmaßnahmen</strong> anpassen müssen, sondern auch ihre <strong>Governance-, Risk- und Compliance-Strukturen</strong>. KI-Modelle und Agentensysteme benötigen klare Verantwortlichkeiten, definierte Daten- und Zugriffskontrollen sowie revisionssichere Überwachungsmechanismen sind ein Muss. Risikobewertungen sollten künftig künstliche Autonomie, sog. &#8222;adversarial prompts&#8220; (zum ausloten von Exploit-Möglichkeiten in KI Modellen), Missbrauch über APIs und potenziell selbstständig eskalierende Angriffspfade berücksichtigen. Die Compliance wiederum muss sicherstellen, dass alle KI-gestützten Prozesse nachvollziehbar dokumentiert, auditierbar und robust gegenüber Fehlverhalten oder Missbrauch sind.</p>
<h3>Einschätzung zum KI-Cyberangriff mit Claude</h3>
<p>Ob es sich im konkreten Fall um einen tatsächlich autonomen <strong>KI-Cyberangriff mit Claude</strong> handelte oder teilweise um ein &#8222;Warnszenario&#8220; mit &#8222;Marketingcharakter&#8220;,  die zentrale Erkenntnis bleibt: <strong><span style="text-decoration: underline;">KI wird zum möglichen Angriffsvektor</span></strong>. Unternehmen, die ihre Sicherheitsarchitektur weiterhin nur im klassischen IT-Kontext betrachten, übersehen eine wesentliche Risikoentwicklung. <strong>KI-Systeme</strong> müssen künftig als eigenständige, <strong>dynamische Komponenten im Angriffsökosystem</strong> bewertet werden.</p>
<h3>Beratung für Cyberangriffe durch KI durch Elsen GRC</h3>
<p><a href="https://elsengrc.com/contact/">Elsen GRC berät Unternehmen und Behörden</a> dabei, ihre Cybersecurity- und Risikoarchitektur an dieses neue Bedrohungsbild anzupassen. Dazu gehört die <strong>Analyse möglicher KI-Angriffsvektoren</strong>, die <strong>Bewertung</strong> der eigenen Exponiertheit, die Entwicklung robuster Governance-Modelle für KI-Systeme sowie die <strong>Integration KI-spezifischer Risikofaktoren in bestehende Compliance- und Incident-Response-Strukturen</strong>. Darüber hinaus begleitet Elsen GRC Organisationen bei der Dokumentation, Überwachung und dem sicheren Betrieb von KI-gestützten Anwendungen &#8211; mit einem klaren Fokus auf Risikominimierung, Transparenz und praktische Umsetzbarkeit, die aus der echten Praxis von über 14 Jahren Software-Entwicklung stammt.</p>
<a class="nectar-button n-sc-button large accent-color regular-button"  href="/contact/" data-color-override="false" data-hover-color-override="false" data-hover-text-color-override="#fff"><span>Unverbindliche Beratung anfordern</span></a>
	</div>
</div>




			</div> 
		</div>
	</div> 
</div></div>
		<div id="fws_69ddb5992c7fd"  data-column-margin="default" data-midnight="dark"  class="wpb_row vc_row-fluid vc_row"  style="padding-top: 0px; padding-bottom: 0px; "><div class="row-bg-wrap" data-bg-animation="none" data-bg-animation-delay="" data-bg-overlay="false"><div class="inner-wrap row-bg-layer" ><div class="row-bg viewport-desktop"  style=""></div></div></div><div class="row_col_wrap_12 col span_12 dark left">
	<div  class="vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone "  data-padding-pos="all" data-has-bg-color="false" data-bg-color="" data-bg-opacity="1" data-animation="" data-delay="0" >
		<div class="vc_column-inner" >
			<div class="wpb_wrapper">
				
<div class="wpb_text_column wpb_content_element " >
	<div class="wpb_wrapper">
		<hr />
<p><strong>Bild</strong>: <a href="https://unsplash.com/de/@petershiin">Peter Shiin &#8211; Unsplash.com</a></p>
<p><strong>Quellen</strong>:</p>
<ul>
<li><a href="https://www.anthropic.com/news/disrupting-AI-espionage">Disrupting the first reported AI-orchestrated cyber espionage campaign (anthropic.com)</a></li>
<li><a href="https://www.heise.de/news/Autonomer-KI-Cyberangriff-Zweifel-an-Anthropics-Untersuchung-11080212.html?wt_mc=nl.red.ho.ho-nl-ki-update.2025-11-17.ansprache.ansprache">Autonome KI-Cyberattacke: Hat sie wirklich so stattgefunden?</a></li>
<li><a href="https://www.mind-verse.de/news/ki-cyberangriffe-autonome-bedrohungen-expertenmeinungen">KI und Cyberangriffe: Ein Bericht über autonome Bedrohungen und Expertenmeinungen</a></li>
</ul>
<p>&nbsp;</p>
	</div>
</div>




			</div> 
		</div>
	</div> 
</div></div>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/angeblicher-ki-cyberangriff-mit-claude/">Angeblicher KI-Cyberangriff mit Claude? Was der Fall für Risiko-Management wirklich bedeutet</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/angeblicher-ki-cyberangriff-mit-claude/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>DSGVO-Änderungen im „Digital Omnibus“: Tracking-Cookies bald erlaubt?</title>
		<link>https://elsengrc.com/journal/news/dsgvo-aenderungen-im-digital-omnibus-tracking-cookies-erlaubt/</link>
					<comments>https://elsengrc.com/journal/news/dsgvo-aenderungen-im-digital-omnibus-tracking-cookies-erlaubt/#respond</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Fri, 14 Nov 2025 18:45:32 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[Cookies]]></category>
		<category><![CDATA[DSGVO]]></category>
		<category><![CDATA[EU AI Act]]></category>
		<category><![CDATA[Profiling]]></category>
		<category><![CDATA[TTDSG]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=967</guid>

					<description><![CDATA[<p>Der Beitrag <a href="https://elsengrc.com/journal/news/dsgvo-aenderungen-im-digital-omnibus-tracking-cookies-erlaubt/">DSGVO-Änderungen im „Digital Omnibus“: Tracking-Cookies bald erlaubt?</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[
		<div id="fws_69ddb5992dddd"  data-column-margin="default" data-midnight="dark"  class="wpb_row vc_row-fluid vc_row"  style="padding-top: 0px; padding-bottom: 0px; "><div class="row-bg-wrap" data-bg-animation="none" data-bg-animation-delay="" data-bg-overlay="false"><div class="inner-wrap row-bg-layer" ><div class="row-bg viewport-desktop"  style=""></div></div></div><div class="row_col_wrap_12 col span_12 dark left">
	<div  class="vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone "  data-padding-pos="all" data-has-bg-color="false" data-bg-color="" data-bg-opacity="1" data-animation="" data-delay="0" >
		<div class="vc_column-inner" >
			<div class="wpb_wrapper">
				
<div class="wpb_text_column wpb_content_element " >
	<div class="wpb_wrapper">
		<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - DSGVO Änderungen" /></p>
<h3>Executive Summary: DSGVO-Änderungen im &#8222;Digital Omnibus&#8220;</h3>
<p>Die EU-Kommission plant im Rahmen des Digital Omnibus Directive weitreichende Anpassungen der <strong>DSGVO</strong>, die vor allem zwei Bereiche betreffen: <strong>Tracking-Cookies</strong> + <strong>Consent-Banner</strong> und <strong>Datenverarbeitung für KI</strong>. Die vorgeschlagenen Änderungen würden die Verwendung von Cookies künftig stärker auf <strong>berechtigtes Interesse</strong> (Art. 6 Abs. 1, Bst. f DSGVO) stützen und die <strong>Einwilligungspflicht</strong> ( Art. 6 Abs. 1 Bst. a DSGVO) erheblich reduzieren. Zusätzlich sollen <strong>pseudonymisierte Daten</strong> leichter für KI-Training und Analyseprozesse nutzbar werden, was den <a href="https://elsengrc.com/journal/entscheidungshilfe-fuer-wen-gilt-der-eu-ai-act/">EU AI Act</a> betrifft. Für Unternehmen könnte dies eine operative Erleichterung bedeuten &#8211; für Datenschützer und Behörden eine deutliche Schwächung des bestehenden Schutzstandards.</p>
</div>
	</div>
</div>




			</div> 
		</div>
	</div> 
</div></div>
		<div id="fws_69ddb5992e49f"  data-column-margin="default" data-midnight="dark"  class="wpb_row vc_row-fluid vc_row"  style="padding-top: 0px; padding-bottom: 0px; "><div class="row-bg-wrap" data-bg-animation="none" data-bg-animation-delay="" data-bg-overlay="false"><div class="inner-wrap row-bg-layer" ><div class="row-bg viewport-desktop"  style=""></div></div></div><div class="row_col_wrap_12 col span_12 dark left">
	<div  class="vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone "  data-padding-pos="all" data-has-bg-color="false" data-bg-color="" data-bg-opacity="1" data-animation="" data-delay="0" >
		<div class="vc_column-inner" >
			<div class="wpb_wrapper">
				
<div class="wpb_text_column wpb_content_element " >
	<div class="wpb_wrapper">
		<h3>Hintergrund: Was die EU im Digital-Omnibus anstrebt</h3>
<p>Mit dem <a href="https://europa.rlp.de/service/presse/detail/eu-kommission-startet-konsultation-zum-digital-omnibus">Digital Omnibus</a> verfolgt die EU-Kommission das Ziel, mehrere digitale Rechtsbereiche &#8211; darunter <a href="https://elsengrc.com/wiki/c/dsgvo/">DSGVO</a><strong>,</strong> <strong>ePrivacy-Regelungen</strong> und Teile der <a href="https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/">KI-Regulierung</a> (EU AI Act) zu modernisieren und administrativ zu verschlanken. Das Paket enthält <strong>Vorschläge</strong>, die das bisherige <strong>Datenschutzmodell</strong> in mehreren Kernpunkten <strong>neu ausrichten</strong> würden:</p>
<ul>
<li><strong>Tracking-Cookies</strong> könnten künftig häufiger auf „berechtigtes Interesse“ (Art. 6 Abs. 1, Bst. f DSGVO) gestützt werden, was die Notwendigkeit von Consent-Bannern deutlich reduzierten würde.</li>
<li><strong>Besondere Kategorien personenbezogener Daten</strong> (Art. 9 DSGVO) sollen enger definiert werden &#8211; nur noch die Informationen, die „direkt“ sensible Merkmale offenbaren, (z.B. Ausweisdokumente) würden so privilegiert geschützt.</li>
<li><strong>Pseudonymisierte Daten</strong> sollen breiter für KI-Training und Analysezwecke nutzbar werden, ohne die bisherigen strengen Voraussetzungen.</li>
<li><strong>Datenverarbeitung</strong> für innovative digitale Dienste soll grundsätzlich erleichtert werden, um europaweit ein wettbewerbsfähiges Innovationsumfeld zu stärken.</li>
</ul>
<p>Einer der wesentlichen Kritikpunkte vieler Datenschutzexperten ist die damit verbundene <strong>Absenkung des Grundrechtsschutzes z</strong>ugunsten wirtschaftlicher <strong>Wettbewerbsfähigkeit</strong>, was langfristig sowohl gesellschaftliche als auch regulatorische Risiken schaffen könnte. Aber wie so oft steht am Ende doch das wirtschaftliche Interesse im Vordergrund.</p>
<h3>Die wichtigsten DSGVO-Änderungen im Detail</h3>
<h3>1. Tracking-Cookies und Consent-Banner</h3>
<p>Zentraler Punkt ist die Neugewichtung zwischen Einwilligung und berechtigtem Interesse (Art. 6 Abs. 1 Bst. a sowie Art. 6 Abs. 1, Bst. f  DSGVO). Wenn Tracking- und Analyseverfahren künftig überwiegend auf <strong>berechtigtes Interesse</strong> gestützt werden dürfen, hätte das folgende Konsequenzen:</p>
<ul>
<li><strong>Consent-Banner</strong> würden deutlicher seltener benötigt und eingeblendet.</li>
<li><strong>Tracking-Mechanismen</strong> (Analytics, Retargeting, Conversion-Messung) könnten mit weniger Reibungsverlusten eingesetzt werden.</li>
<li>Betreiber müssten verstärkt <strong>Opt-out-Mechanismen</strong> bereitstellen und transparent darstellen &amp; dokumentieren (z.B. als barrierefreier Link auf der Startseite)<br />
Die Datenqualität von Web-Analytics würde steigen, während aber das Missbrauchspotenzial steigen dürfte.</li>
</ul>
<p>Für Unternehmen wäre dies operativ eine klare Erleichterung; für Betroffene und Aufsichtsbehörden ein erheblicher Kontrollverlust (und vermutlich auch ein Verlust an Bußgeldern).</p>
<h3>2. KI-Training und pseudonymisierte Daten</h3>
<p>Die vorgeschlagenen Änderungen würden es erlauben, pseudonymisierte Daten deutlich breiter für das Training von KI-Modellen zu nutzen. Dies betrifft insbesondere:</p>
<ul>
<li>KI-Startups (LLM-Entwickler und Provider)</li>
<li>SaaS-Unternehmen mit großen Datenpools (Nutzung von KI-APIs)</li>
<li>Plattformanbieter bzw. Plattformbetreiber</li>
<li>Forschung &amp; öffentliche Stellen</li>
</ul>
<p>Mehr Spielraum bedeutet stärkere Innovationsfähigkeit, gleichzeitig steigt aber auch das Risiko der Re-Identifizierung, wenn Qualität und <strong>Integrität</strong> der <strong>Pseudonymisierung</strong> nicht gewährleistet sind.</p>
<h3>3. Neue Definition sensibler Daten</h3>
<p>Der Vorschlag der Kommission sieht vor, nur solche Informationen als „besonders schützenswert“ einzustufen, die unmittelbar <strong>Rückschlüsse</strong> auf Merkmale wie Gesundheit, ethnische Herkunft oder Religion zulassen (vgl. Art. 9 DSGV). Daten, die lediglich nur sensible Merkmale vermuten lassen, etwa das Einkaufsverhalten, Standortprofile oder Nutzungsdaten, würden künftig nicht mehr automatisch unter die hohen Schutzstandards fallen.</p>
<p><strong>Ist das also ein Freifahrtsschein für ungebremstes Tracking?</strong> Jedenfalls hätte dies weitreichende Auswirkungen auf Prozesse wie personenbezogenes Profiling, Scoring (mit Personenbezug), Risikobewertungen, Zielgruppenanalysen oder auch KI-gestützte Verhaltensmodelle.</p>
<h3>Auswirkungen auf Unternehmen, Behörden und Datenschutzbeauftragte</h3>
<p>Für Unternehmen ergeben sich potenziell deutliche Arbeitserleichterungen und bürokratische &#8222;Entschlackungen&#8220;:</p>
<ul>
<li>weniger Abhängigkeit von Consent-Banner-Logiken</li>
<li>größere Datengrundlage für Analytics und KI</li>
<li>weniger Komplexität im Cookie-Management</li>
<li>bessere Planbarkeit bei Marketing- und Produktanalyseprozessen</li>
</ul>
<p>Für Behörden und <a href="https://elsengrc.com/externer-datenschutzbeauftragter/">Datenschutzbeauftragte</a> entsteht jedoch zusätzlicher Druck, während in Prüfprozessen einige Anpassungen erforderlich werden:</p>
<ul>
<li>Schutzmechanismen müssten stärker über Governance statt über Einwilligung organisiert werden</li>
<li>neue Prüfroutinen wären erforderlich</li>
<li>die Rechtslage würde kurzfristig unübersichtlicher</li>
<li>der gesellschaftliche Diskurs über Datenschutzstandards würde neu entfacht</li>
</ul>
<h3>Einschätzung und GRC-Einordnung</h3>
<p>Die geplanten Anpassungen deuten auf eine <strong>strategische Verschiebung</strong> hin: von einem schutzorientierten Datenschutzmodell hin zu einem <strong>wirtschaftlich getriebenen datenpolitischen Framework</strong>, das zunehmend versucht, <strong>Wettbewerbsnachteile</strong> in Europa im rasenden &#8222;KI-Zug&#8220; zu verhindern. Unternehmen sollten diese Entwicklung aber nicht als „Freifahrtschein” verstehen, sondern als Signal, eigene Governance-Strukturen zu professionalisieren &#8211; insbesondere in Bereichen, in denen Einwilligungspflichten entfallen könnten, aber Transparenz- und Rechenschaftspflichten bestehen bleiben.</p>
<h3>Was bedeutet das für Ihren GRC Prozes??</h3>
<ul>
<li><strong>Governance</strong>: Unternehmen müssen klare Verantwortlichkeiten definieren, insbesondere für Opt-out-Management, Datenkategorien und KI-Datenflüsse.</li>
<li><strong>Risk</strong>: Risiken liegen vor allem im Profiling, in Diskriminierungspotenzialen und in der Gefahr der Re-Identifizierung pseudonymisierter Daten.</li>
<li><strong>Compliance</strong>: Verarbeitungsverzeichnisse, DPAs, Datenschutzerklärungen und DSFAs müssen aktualisiert und an die neuen Rechtsgrundlagen angepasst werden.</li>
</ul>
<p>Die meisten Unternehmen profitieren, wenn sie frühzeitig ihre Datenschutz- und KI-Governance modernisieren, statt nur auf die Erleichterungen zu reagieren. <a href="https://elsengrc.com/contact/">Gerne berate ich Sie dabei</a>.</p>
<p>&nbsp;</p>
<hr />
<p>Bild: Vyshnavi Bisani &#8211; Unsplash.com</p>
<p>Quellen:</p>
<ul>
<li><a href="https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX%3A32016R0679">DSGVO (Originaltext)</a></li>
<li><a href="https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=CELEX:32002L0058">e Privacy Richtlinien </a></li>
<li><a href="https://www.gesetze-im-internet.de/ttdsg/__25.html">TTDSG §25 (Deutsche Gesetzgebung)</a></li>
<li><a href="https://www.heise.de/news/EU-will-DSGVO-schleifen-fuer-KI-und-Cookie-Banner-11071630.html">Heise.de (Abruf: 14.11.25)</a></li>
<li><a href="https://netzpolitik.org/2025/digitaler-omnibus-eu-kommission-strebt-offenbar-kahlschlag-beim-datenschutz-an-update/">Netzpolitik.org (Abruf: 14.11.25)</a></li>
</ul>
	</div>
</div>




			</div> 
		</div>
	</div> 
</div></div>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/dsgvo-aenderungen-im-digital-omnibus-tracking-cookies-erlaubt/">DSGVO-Änderungen im „Digital Omnibus“: Tracking-Cookies bald erlaubt?</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/dsgvo-aenderungen-im-digital-omnibus-tracking-cookies-erlaubt/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>EU AI Act Übergangsfristen für Hochrisiko-KI bis 2027 verlängert</title>
		<link>https://elsengrc.com/journal/news/eu-ai-act-uebergangsfristen-fuer-hochrisiko-ki-bis-2027-verlaengert/</link>
					<comments>https://elsengrc.com/journal/news/eu-ai-act-uebergangsfristen-fuer-hochrisiko-ki-bis-2027-verlaengert/#comments</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Wed, 05 Nov 2025 09:51:54 +0000</pubDate>
				<category><![CDATA[GRC Journal]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[EU AI Act]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=703</guid>

					<description><![CDATA[<p>Die Europäische Kommission und mehrere Mitgliedstaaten, darunter Deutschland, haben vorgeschlagen, zentrale Anwendungsfristen des EU Artificial Intelligence Act (EU AI Act , Verordnung (EU) 2024/1689) um ein Jahr zu verschieben. Besonders...</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/eu-ai-act-uebergangsfristen-fuer-hochrisiko-ki-bis-2027-verlaengert/">EU AI Act Übergangsfristen für Hochrisiko-KI bis 2027 verlängert</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Die <strong>Europäische Kommission</strong> und mehrere Mitgliedstaaten, darunter Deutschland, haben vorgeschlagen, zentrale Anwendungsfristen des <strong>EU Artificial Intelligence Act</strong> (<a href="https://elsengrc.com/wiki/g/eu-ai-act-definition-bedeutung-pflichten-fuer-unternehmen/">EU AI Act</a> , Verordnung (EU) 2024/1689) um ein Jahr zu verschieben. Besonders betroffen sind die sogenannten <strong>Hochrisiko-KI-Systeme</strong> gemäß <a href="https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0019.02/DOC_2&amp;format=PDF">Anhang I und III</a>. Diese sollen nun erst 2026 bzw. 2027 verbindlich gelten, so der Vorschlag. Ziel ist es, den Unternehmen, Behörden und Aufsichtsstellen mehr Zeit zur technischen und organisatorischen Umsetzung zu geben – eine Entscheidung mit weitreichenden Folgen für <strong>Datenschutz</strong>, <strong>Governance</strong> und <strong>Compliance</strong> in Europa. Die EU-Komission will ihre diesbezügliche Pläne voraussichtlich am 19.11.25 vorstellen.</p>
<h3>Hintergrund der EU AI Act Übergangsfristen</h3>
<p>Der EU AI Act ist die &#8222;weltweit erste umfassende <strong>KI-Verordnung</strong>&#8220; und bildet den <strong>zentralen Rechtsrahmen</strong> für die Entwicklung, Bereitstellung, Integration und Nutzung von Künstlicher Intelligenz in der EU. Die Verordnung unterscheidet zwischen <strong>vier Risikostufen</strong> &#8211; von „unannehmbar“ bis „minimal“. Systeme, die als „Hochrisiko“ eingestuft werden (z.B. KI-Sicherheitskomponenten in kritischen Infrastrukturen oder Gesundheitssystemen), unterliegen strengen Pflichten wie Risikomanagement, Transparenz, Dokumentation und Konformitätsbewertung, um gegenüber den Aufsichtsbehörden entsprechende Nachweise erbringen zu können.</p>
<p><img decoding="async" class="alignnone wp-image-726 " src="https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act.png" alt="4 Risikostufen im EU AI Act" width="900" height="720" srcset="https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act.png 2500w, https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act-300x240.png 300w, https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act-1024x819.png 1024w, https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act-768x614.png 768w, https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act-1536x1229.png 1536w, https://elsengrc.com/docs/uploads/2025/11/4-Risikostufen-im-EU-AI-Act-2048x1638.png 2048w" sizes="(max-width: 900px) 100vw, 900px" /></p>
<p>Die entsprechenden Anwendungsfälle sind in den<strong> Anlagen I und III</strong> des Gesetzes definiert. Ursprünglich sollten die Regeln rund 24 Monate nach Inkrafttreten (1. August 2024 )gelten, d.h. ab dem 01. August 2026. Durch die nun diskutierte Anpassung würden sich die <strong>EU AI Act Übergangsfristen</strong> auf 36 Monate verlängern, womit August 2027 im Raum steht. Die <a href="https://digital-strategy.ec.europa.eu/de/policies/regulatory-framework-ai">EU-Kommission schreibt hier selbst</a>:</p>
<blockquote><p>Die Vorschriften für Hochrisiko-KI-Systeme, die in regulierte Produkte eingebettet sind, haben einen verlängerten Übergangszeitraum bis zum 2. August 2027.</p></blockquote>
<p><strong>Die Begründung</strong>: Viele Mitgliedstaaten und Branchenverbände sehen derzeit noch Lücken bei der praktischen Umsetzung – insbesondere bei der Normung, der Einrichtung der nationalen Aufsichtsbehörden sowie bei der technischen Ausgestaltung der Compliance-Prozesse.</p>
<h3>Auswirkungen auf Unternehmen</h3>
<p>Für Unternehmen bedeutet die geplante Fristverlängerung mehr Zeit, aber keine Entwarnung.</p>
<ul>
<li><strong>Planungs- und Rechtssicherheit</strong>: Organisationen können ihre eigenen KI-Strategien und Governance-Strukturen mit größerem zeitlichen Spielraum anpassen und entsprechende <a href="https://elsengrc.com/contact/">Governance, Risk und Compliance Prozesse entwickeln</a></li>
<li><strong>Implementierung</strong>: Compliance-Teams gewinnen Zeit für Risikoanalysen, technische Dokumentation, Daten-Governance und den Aufbau von KI-Registrierungen.</li>
<li><strong>Lieferantenmanagement</strong>: Anbieter von KI-Komponenten sollten bestehende Vertrags- und Prüfprozesse frühzeitig anpassen, um künftige Anforderungen an Transparenz und Nachvollziehbarkeit zu erfüllen.</li>
<li><strong>Ressourcen</strong>: Gerade KMU und SaaS-Unternehmen erhalten die Möglichkeit, Personal und Budgets für KI-Compliance gezielter einzuplanen, ohne durch kurzfristige Umsetzungspflichten behindert zu werden.</li>
</ul>
<p><strong>Eine Verschiebung der Anwendung ist jedoch <span style="text-decoration: underline;">keine inhaltliche Abschwächung</span> &#8211; die regulatorischen Anforderungen selbst bleiben unverändert!</strong></p>
<h3>Bezug zu Governance, Risk und Compliance</h3>
<p>Die Anpassung betrifft unmittelbar den Compliance-Bereich (Einhaltung gesetzlicher Vorschriften) und steht zugleich in engem Bezug zu Governance und Risikomanagement. Nachfolgend liefere ich Ihnen einen kompakten Eindruck über die Bedeutung für GRC:</p>
<ul>
<li><strong>Governance: </strong>Unternehmen müssen KI-Einsatz und Verantwortlichkeiten intern strategisch planen, steuern, dokumentieren und transparent machen.</li>
<li><strong>Risk: </strong>Der AI Act verlangt die systematische Identifikation, Bewertung und Minderung von Risiken, die aus KI-Anwendungen entstehen, insbesondere für die Verarbeitung von personenbezogenen Daten (Beachtung der DSGVO weiterhin relevant!)</li>
<li><strong>Compliance: </strong>Aufbau eines rechtssicheren Nachweis- und Kontrollsystems, das gegenüber Aufsichtsbehörden belegt, dass KI-Systeme die Anforderungen erfüllen.</li>
</ul>
<p><strong>Die Verlängerung der EU AI Act Übergangsfristen verschiebt somit die operative Umsetzung, nicht jedoch die Pflicht zur Vorbereitung.</strong></p>
<h3>Fachliche Einschätzung</h3>
<p>Die vorgeschlagene Fristverlängerung ist aus praktischer Sicht sinnvoll: Viele Organisationen, insbesondere KMU, stehen noch am Anfang einer <strong>strukturierten KI-Governance</strong>. Gleichzeitig besteht das <strong>Risiko</strong>, dass eine zu lange Übergangsphase zu <strong>Unsicherheit</strong> führt, insbesondere bei der Auslegung der „High-Risk“-Kriterien (Stufe 2) und der Klassifizierung von General-Purpose-KI-Modellen. Entscheidend wird sein, ob die EU klare Leitlinien und technische Standards frühzeitig bereitstellt, die auch &#8222;verständlich&#8220; und praxistauglich sind.</p>
<h3>Beratung zum EU AI Act durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen, öffentliche Einrichtungen (Ämter, Behörden, Kommunen) und SaaS-Anbieter bei der Umsetzung der Compliance-Anforderungen, die aus dem EU AI Act resultieren. Dazu gehören neben einer konkreten <strong>Risiko- und Systemklassifizierung gemäß AI Act</strong> Anhängen I bis III und der Erstellung von Governance- und Dokumentationsstrukturen auch die Begleitung bei <strong>KI-Readiness-Analysen + Audits</strong> bis hin zu Integration von Datenschutz-Prozessen (DSGVO, ISO 27701) und KI-Management (ISO 42001), die durch den Aufbau von internen Kontrollsystemen und Compliance-Workflows langfristig im Blick des Managements bleiben.</p>
<p>Mit einem praxisnahen Ansatz verbinden wir rechtliche Anforderungen mit technischer Machbarkeit – für eine sichere, nachvollziehbare und nachhaltige KI-Nutzung. Melden Sie sich jetzt für ein <a href="https://elsengrc.com/contact/">unverbindliche Erstberatung zum AI Act</a>.</p>
<a class="nectar-button n-sc-button large accent-color regular-button"  href="/contact/" data-color-override="false" data-hover-color-override="false" data-hover-text-color-override="#fff"><span>Unverbindliche Beratung anfordern</span></a>
<hr />
<p>Quellen</p>
<ul>
<li><a href="https://digital-strategy.ec.europa.eu/de/policies/regulatory-framework-ai">Europäische Kommission: Artificial Intelligence Act – Legislative Framework</a></li>
<li><a href="https://www.heise.de/news/Bundesregierung-will-EU-KI-Regeln-massiv-ueberarbeiten-10964150.html">Heise Online (2025): Bundesregierung will EU-KI-Regeln massiv überarbeiten</a></li>
<li><a href="https://www.vde.com/topics-de/kuenstliche-intelligenz/blog/ki-systeme-eu-artificial-intelligence-act">VDE (2025): KI-Systeme und Risikoklassen im EU AI Act</a></li>
</ul>
<p>Bild:  <a href="https://unsplash.com/de/@markusspiske?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText">Markus Spiske</a> &#8211; Unsplash.com</p>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/eu-ai-act-uebergangsfristen-fuer-hochrisiko-ki-bis-2027-verlaengert/">EU AI Act Übergangsfristen für Hochrisiko-KI bis 2027 verlängert</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/eu-ai-act-uebergangsfristen-fuer-hochrisiko-ki-bis-2027-verlaengert/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
	</channel>
</rss>
