<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Urheberrecht Archive - ELSEN GRC</title>
	<atom:link href="https://elsengrc.com/tag/urheberrecht/feed/" rel="self" type="application/rss+xml" />
	<link>https://elsengrc.com/tag/urheberrecht/</link>
	<description>Governance, Risk, Compliance Beratung - AI Privacy &#38; SaaS</description>
	<lastBuildDate>Tue, 09 Dec 2025 16:00:06 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://elsengrc.com/docs/uploads/2025/10/cropped-512-32x32.png</url>
	<title>Urheberrecht Archive - ELSEN GRC</title>
	<link>https://elsengrc.com/tag/urheberrecht/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Streit um KI-Urheberrecht eskaliert: OpenAI muss 20 Millionen Chatprotokolle offenlegen</title>
		<link>https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/</link>
					<comments>https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/#respond</comments>
		
		<dc:creator><![CDATA[Mario Elsen]]></dc:creator>
		<pubDate>Tue, 09 Dec 2025 16:00:06 +0000</pubDate>
				<category><![CDATA[News]]></category>
		<category><![CDATA[ChatGPT]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Urheberrecht]]></category>
		<category><![CDATA[USA]]></category>
		<guid isPermaLink="false">https://elsengrc.com/?p=1095</guid>

					<description><![CDATA[<p>Der Beitrag <a href="https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/">Streit um KI-Urheberrecht eskaliert: OpenAI muss 20 Millionen Chatprotokolle offenlegen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></description>
										<content:encoded><![CDATA[
		<div id="fws_6a064fe5a78e8"  data-column-margin="default" data-midnight="dark"  class="wpb_row vc_row-fluid vc_row top-level"  style="padding-top: 0px; padding-bottom: 0px; "><div class="row-bg-wrap" data-bg-animation="none" data-bg-animation-delay="" data-bg-overlay="false"><div class="inner-wrap row-bg-layer" ><div class="row-bg viewport-desktop"  style=""></div></div></div><div class="row_col_wrap_12 col span_12 dark left">
	<div  class="vc_col-sm-12 wpb_column column_container vc_column_container col no-extra-padding inherit_tablet inherit_phone "  data-padding-pos="all" data-has-bg-color="false" data-bg-color="" data-bg-opacity="1" data-animation="" data-delay="0" >
		<div class="vc_column-inner" >
			<div class="wpb_wrapper">
				
<div class="wpb_text_column wpb_content_element " >
	<div class="wpb_wrapper">
		<div class="grc-summary">
<p><img decoding="async" class="summary-icon" src="/docs/uploads/2025/11/summary-icon.png" alt="Executive Summary - Streit um KI-Urheberrecht" /></p>
<h3>Executive Summary: Streit um KI-Urheberrecht &#8211; OpenAI muss Chatprotokolle offenlegen</h3>
<p>Der aktuelle <strong>Streit um KI-Urheberrecht</strong> zwischen der <a href="https://www.nytimes.com/">New York Times</a> (NYT) und <a href="https://openai.com/de-DE/">OpenAI</a> erreicht eine neue Eskalationsstufe: Ein US-Bundesgericht verpflichtet OpenAI, rund <strong>20 Millionen anonymisierte Chatprotokolle (von ChatGPT-Nutzern)</strong> an die NYT herauszugeben. Die Protokolle stammen aus einer zufälligen Stichprobe von Consumer-Chats zwischen Dezember 2022 und November 2024 und sollen belegen, ob ChatGPT urheberrechtlich geschützte Inhalte der NYT im Rahmen von Nutzeranfragen reproduziert hat. Laut Gericht sollen die Daten „de-identifiziert“ werden, was der Entfernung etwa von Namen, E-Mail Adressen oder sonstigen personenbezogenen Daten beschreibt. Allerdings  ist eine De-Identifizierung nicht das Gleiche wie eine &#8222;Anonymisierung&#8220;. <strong>OpenAI warnt daher vor erheblichen Eingriffen in die Privatsphäre der Nutzer</strong>, da der Kontext Rückschlüsse auf die verarbeiteten Daten gewähren könnte.</p>
</div>
<p>Für<strong> Governance, Risk und Compliance</strong> (GRC) stellt sich damit eine <strong>zentrale Frage</strong>: Können wir uns darauf verlassen, dass Chatprotokolle von LLM-Anbietern  tatsächlich ausreichend anonymisiert sind? Wie können wir verhindern, dass diese im Rahmen von Gerichtsprozessen herausgegeben werden müssen? Und wie erfahren Organisationen, ob sensible oder Geschäftsinformationen oder Inhalte ihrer Mitarbeitenden in solchen Datenpools landen, wenn der Streit um KI-Urheberrecht vor Gericht ausgetragen wird? Steigen wir ein.</p>
<h3>Hintergrund: Streit um KI-Urheberrecht und Offenlegung von Chatprotokollen</h3>
<p>Im Kern des aktuellen <strong>Streits um KI-Urheberrecht</strong> steht der Vorwurf der NYT, dass OpenAI journalistischen Inhalte des Magazins <strong>ohne Lizenz für das Training von KI-Modellen</strong> genutzt habe. Wie <a href="https://www.heise.de/news/KI-Modelle-New-York-Times-klagt-gegen-Perplexity-Meta-schliesst-Lizenzabkommen-11104846.html">heise online berichtet</a>, hat ein US-Gericht OpenAI nun <strong>verpflichtet</strong>, eine große Menge an Chatprotokollen offenzulegen, damit geprüft werden kann, ob ChatGPT Inhalte der NYT wortgleich oder in wesentlichen Teilen reproduziert hat. Die Richterin hält die Protokolle für prozessrelevant und sieht den Datenschutz durch eine vorherige Anonymisierung als ausreichend gewahrt. Bekanntlich sehen US-Instanzen aber kein vergleichbares Datenschutz-Niveau wie etwa nach <a href="https://elsengrc.com/wiki/c/dsgvo/">DSGVO-Standard</a>.</p>
<p>Laut <a href="https://the-decoder.de/openai-muss-20-millionen-chatgpt-chats-an-new-york-times-herausgeben/">The Decoder</a> handelt es sich um eine zufällig gezogene Stichprobe von <strong>20 Millionen ChatGPT-Unterhaltungen von Consumer-Nutzern</strong> aus dem Zeitraum Dezember 2022 bis November 2024. Ursprünglich hatte die NYT sogar die Herausgabe von rund 1,4 Milliarden Chats gefordert, konnte sich damit aber nicht gerichtlich durchsetzen. OpenAI hat gegen die Entscheidung Berufung eingelegt, muss die Daten nach derzeitigem Stand aber innerhalb eines engen Zeitfensters bereitstellen.</p>
<p>Parallel dazu weitet sich der <strong>Streit um KI-Urheberrecht</strong> aus: Die New York Times verklagt zusätzlich andere KI-Unternehmen wie <a href="https://www.perplexity.ai">Perplexity</a> wegen angeblich unlizenzierter Nutzung von Medieninhalten, während <a href="https://www.meta.com/">Meta</a> versucht, das Thema durch Lizenzabkommen mit Verlagen zu entschärfen. Es geht längst nicht mehr nur um einen Einzelfall, sondern um die grundsätzliche Frage, wie Medieninhalte in KI-Modellen genutzt werden dürfen &#8211; und welche Rolle dabei Nutzerdaten und Chatprotokolle spielen.</p>
<h3>Was wird bei Gerichten offengelegt und warum ist das GRC-relevant?</h3>
<p>Offiziell sollen die Chatprotokolle vor der Übergabe <strong>„de-identifiziert“</strong> werden: Klarnamen, direkte Identifikatoren und offensichtliche personenbezogene Daten sollen entfernt werden, bevor sie bei der NYT landen. Aus GRC-Perspektive ist damit jedoch nur ein Teil des Problems adressiert. In vielen Organisationen wurden und werden öffentliche KI-Dienste wie ChatGPT mit privaten Accounts genutzt &#8211; oft ohne klare Richtlinien, welche Inhalte eingegeben werden dürfen. Es existieren also in den wenigsten Fällen echte Policies in Unternehmen und Behörden, die den Umgang mit den Chatbots regeln.</p>
<p>Aber selbst wenn keine Namen mehr enthalten sind, können <strong>Kontexte und Kombinationen</strong> von Informationen weiterhin Rückschlüsse auf personenbezogene Daten oder Organisationsdaten zulassen: projekt- oder kundenspezifische Bezeichnungen, interne Produkt- oder Projektnamen, spezifische Branchenkonstellationen, Standorte, Fallbeschreibungen oder interne Strategiepapiere, die nicht unter die &#8222;De-Identifikation&#8220; fallen. Gerade in regulierten Bereichen (Gesundheitswesen, Finanzsektor, öffentliche Verwaltung) stellt sich die Frage, ob Mitarbeitende in den betroffenen Zeiträumen vertrauliche Inhalte in Consumer-Konten von ChatGPT eingetragen haben und ob diese Inhalte jetzt Teil einer anonymisierten Datenbasis werden, die im Rahmen des <strong>Streits um KI-Urheberrecht</strong> von der Times ausgewertet wird.</p>
<p>Hinzu kommt: Es existiert <strong>keine einfache Möglichkeit für Organisationen, festzustellen, ob sie konkret betroffen sind</strong>. Die Stichprobe ist zufällig, die Daten sind weitgehend anonymisiert, direkte Benachrichtigungen der Nutzer oder Organisationen sind nicht vorgesehen. Aus Sicht von Governance, Risk und Compliance geht es daher weniger um die Frage, ob man im Einzelfall „drin“ ist, sondern darum, ob das Risiko, in solchen Verfahren zu landen, überhaupt bewusst gesteuert oder eher zufällig in Kauf genommen wurde. Schließlich wird das nicht der letzte Streit um &#8222;KI-Urheberrechte&#8220; sein, der in Zukunft ausgetragen werden dürfte.</p>
<h3>Bedeutung für Governance, Risk und Compliance</h3>
<p>Der aktuelle <strong>Streit um KI-Urheberrecht</strong> zeigt deutlich, dass KI-Nutzung nicht nur ein Technik- oder Produktivitäts-Thema ist, sondern unmittelbar in den Verantwortungsbereich von Governance, Risk und Compliance fällt. Auf der Ebene der <strong>Governance</strong> benötigen Unternehmen und Behörden klare Richtlinien, wie externe KI-Dienste genutzt werden dürfen: Welche Datenarten sind erlaubt, welche sind tabu? Müssen Mitarbeitende zwingend Unternehmensaccounts mit kontrollierten Einstellungen nutzen? Wie werden Schatten-IT und „<a href="https://elsengrc.com/wiki/shadow-ai/">Shadow AI</a>“ verhindert, bei der Mitarbeitende eigenständig und ohne Freigabe Daten in öffentliche Modelle kopieren?</p>
<p>Auf der Ebene des <strong>Risiko-Managements</strong> muss bewertet werden, welche Folgen es haben kann, wenn <strong>sensible oder vertrauliche Inhalte in die Log- oder Trainingsdaten eines KI-Anbieters gelangen</strong>. Der vorliegende Fall zeigt, dass diese Daten später in völlig anderen Kontexten &#8211; etwa vor Gericht &#8211; wieder auftauchen können, selbst wenn sie formal anonymisiert sind. Das betrifft Geschäftsgeheimnisse ebenso wie Kunden- oder Mandanteninformationen, interne Strategien oder sicherheitsrelevante Abläufe. Auch was das im Kontext der Löschpflichten bzw. dem Recht auf Vergessenwerden nach DSGVO in Art. 17 bedeutet, ist schwer einzuordnen.</p>
<p>Für die <strong>Compliance</strong> bedeutet der Fall, dass Verarbeitungsverzeichnisse, Auftragsverarbeitungsverträge (DPAs), Datenschutz-Folgenabschätzungen (DSFAs) und <strong>interne Richtlinien zum Einsatz externer KI-Dienste um genau diese Szenarien erweitert werden müssen</strong>: Was passiert mit unseren Daten, wenn der Anbieter aufgrund eines gerichtlichen Beschlusses zur Offenlegung gezwungen wird? Welche Schutzmechanismen (z. B. Logging-Einstellungen, Speicherdauer, Opt-out-Optionen) haben wir technisch und vertraglich vereinbart? Und wie werden diese heute praktisch eingehalten?<a href="https://elsengrc.com/contact/"> Gerne berate ich Sie hier</a>.</p>
<h3>Beratung zum Einsatz von KI-Systemen und LLMs durch Elsen GRC</h3>
<p>Elsen GRC unterstützt Unternehmen, SaaS-Anbieter und Behörden dabei, den Einsatz von KI-Systemen wie ChatGPT und anderen Large Language Models <strong>GRC-sicher zu gestalten</strong>. Dazu gehören die Entwicklung und Einführung klarer KI-Nutzungsrichtlinien (AI Policies), die Definition zulässiger und unzulässiger Datenkategorien, der <a href="https://elsengrc.com/ki-risiko-check/">Risiko-Check beim Einsatz von KI</a>, sowie die Gestaltung von Governance-Strukturen, mit denen Shadow-AI und unkontrollierte Nutzung externer KI-Dienste reduziert werden.</p>
<p>Gemeinsam mit Ihnen analysiere ich, welche Daten heute bereits in externe Modelle fließen, welche Risiken daraus entstehen und wie diese <strong>vertraglich, organisatorisch und technisch</strong> abgesichert werden können &#8211; etwa durch den Einsatz kontrollierter Unternehmenszugänge, restriktiver Logging-Policies, EU- oder On-Prem-Hosting-Varianten. Ziel ist es, die Vorteile moderner KI sinnvoll zu nutzen, ohne die Organisation im <strong>Streit um KI-Urheberrecht</strong> oder bei Datenschutz- und Sicherheitsfragen unnötig angreifbar zu machen.</p>
<p>Melden Sie sich gerne für ein <a href="https://elsengrc.com/contact/">unverbindliches Erstgespräch</a>.</p>
<hr />
<p>Foto: Rafael Hoyos Weht &#8211; Unsplash.com</p>
<p>Quellen:</p>
<ul>
<li><a href="https://www.heise.de/news/KI-Modelle-New-York-Times-klagt-gegen-Perplexity-Meta-schliesst-Lizenzabkommen-11104846.html">KI-Urheberrechtsstreit eskaliert: OpenAI muss Chatprotokolle offenlegen – heise online</a></li>
<li><a href="https://the-decoder.de/openai-muss-20-millionen-chatgpt-chats-an-new-york-times-herausgeben/">OpenAI muss 20 Millionen ChatGPT-Chats an New York Times herausgeben – The Decoder</a></li>
</ul>
	</div>
</div>




			</div> 
		</div>
	</div> 
</div></div>
<p>Der Beitrag <a href="https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/">Streit um KI-Urheberrecht eskaliert: OpenAI muss 20 Millionen Chatprotokolle offenlegen</a> erschien zuerst auf <a href="https://elsengrc.com">ELSEN GRC</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://elsengrc.com/journal/news/streit-um-ki-urheberrecht-eskaliert-openai-muss-20-millionen-chatprotokolle-offenlegen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
