Skip to main content

Executive Summary - Streit um KI-Urheberrecht

Executive Summary: Streit um KI-Urheberrecht – OpenAI muss Chatprotokolle offenlegen

Der aktuelle Streit um KI-Urheberrecht zwischen der New York Times (NYT) und OpenAI erreicht eine neue Eskalationsstufe: Ein US-Bundesgericht verpflichtet OpenAI, rund 20 Millionen anonymisierte Chatprotokolle (von ChatGPT-Nutzern) an die NYT herauszugeben. Die Protokolle stammen aus einer zufälligen Stichprobe von Consumer-Chats zwischen Dezember 2022 und November 2024 und sollen belegen, ob ChatGPT urheberrechtlich geschützte Inhalte der NYT im Rahmen von Nutzeranfragen reproduziert hat. Laut Gericht sollen die Daten „de-identifiziert“ werden, was der Entfernung etwa von Namen, E-Mail Adressen oder sonstigen personenbezogenen Daten beschreibt. Allerdings  ist eine De-Identifizierung nicht das Gleiche wie eine „Anonymisierung“. OpenAI warnt daher vor erheblichen Eingriffen in die Privatsphäre der Nutzer, da der Kontext Rückschlüsse auf die verarbeiteten Daten gewähren könnte.

Für Governance, Risk und Compliance (GRC) stellt sich damit eine zentrale Frage: Können wir uns darauf verlassen, dass Chatprotokolle von LLM-Anbietern  tatsächlich ausreichend anonymisiert sind? Wie können wir verhindern, dass diese im Rahmen von Gerichtsprozessen herausgegeben werden müssen? Und wie erfahren Organisationen, ob sensible oder Geschäftsinformationen oder Inhalte ihrer Mitarbeitenden in solchen Datenpools landen, wenn der Streit um KI-Urheberrecht vor Gericht ausgetragen wird? Steigen wir ein.

Hintergrund: Streit um KI-Urheberrecht und Offenlegung von Chatprotokollen

Im Kern des aktuellen Streits um KI-Urheberrecht steht der Vorwurf der NYT, dass OpenAI journalistischen Inhalte des Magazins ohne Lizenz für das Training von KI-Modellen genutzt habe. Wie heise online berichtet, hat ein US-Gericht OpenAI nun verpflichtet, eine große Menge an Chatprotokollen offenzulegen, damit geprüft werden kann, ob ChatGPT Inhalte der NYT wortgleich oder in wesentlichen Teilen reproduziert hat. Die Richterin hält die Protokolle für prozessrelevant und sieht den Datenschutz durch eine vorherige Anonymisierung als ausreichend gewahrt. Bekanntlich sehen US-Instanzen aber kein vergleichbares Datenschutz-Niveau wie etwa nach DSGVO-Standard.

Laut The Decoder handelt es sich um eine zufällig gezogene Stichprobe von 20 Millionen ChatGPT-Unterhaltungen von Consumer-Nutzern aus dem Zeitraum Dezember 2022 bis November 2024. Ursprünglich hatte die NYT sogar die Herausgabe von rund 1,4 Milliarden Chats gefordert, konnte sich damit aber nicht gerichtlich durchsetzen. OpenAI hat gegen die Entscheidung Berufung eingelegt, muss die Daten nach derzeitigem Stand aber innerhalb eines engen Zeitfensters bereitstellen.

Parallel dazu weitet sich der Streit um KI-Urheberrecht aus: Die New York Times verklagt zusätzlich andere KI-Unternehmen wie Perplexity wegen angeblich unlizenzierter Nutzung von Medieninhalten, während Meta versucht, das Thema durch Lizenzabkommen mit Verlagen zu entschärfen. Es geht längst nicht mehr nur um einen Einzelfall, sondern um die grundsätzliche Frage, wie Medieninhalte in KI-Modellen genutzt werden dürfen – und welche Rolle dabei Nutzerdaten und Chatprotokolle spielen.

Was wird bei Gerichten offengelegt und warum ist das GRC-relevant?

Offiziell sollen die Chatprotokolle vor der Übergabe „de-identifiziert“ werden: Klarnamen, direkte Identifikatoren und offensichtliche personenbezogene Daten sollen entfernt werden, bevor sie bei der NYT landen. Aus GRC-Perspektive ist damit jedoch nur ein Teil des Problems adressiert. In vielen Organisationen wurden und werden öffentliche KI-Dienste wie ChatGPT mit privaten Accounts genutzt – oft ohne klare Richtlinien, welche Inhalte eingegeben werden dürfen. Es existieren also in den wenigsten Fällen echte Policies in Unternehmen und Behörden, die den Umgang mit den Chatbots regeln.

Aber selbst wenn keine Namen mehr enthalten sind, können Kontexte und Kombinationen von Informationen weiterhin Rückschlüsse auf personenbezogene Daten oder Organisationsdaten zulassen: projekt- oder kundenspezifische Bezeichnungen, interne Produkt- oder Projektnamen, spezifische Branchenkonstellationen, Standorte, Fallbeschreibungen oder interne Strategiepapiere, die nicht unter die „De-Identifikation“ fallen. Gerade in regulierten Bereichen (Gesundheitswesen, Finanzsektor, öffentliche Verwaltung) stellt sich die Frage, ob Mitarbeitende in den betroffenen Zeiträumen vertrauliche Inhalte in Consumer-Konten von ChatGPT eingetragen haben und ob diese Inhalte jetzt Teil einer anonymisierten Datenbasis werden, die im Rahmen des Streits um KI-Urheberrecht von der Times ausgewertet wird.

Hinzu kommt: Es existiert keine einfache Möglichkeit für Organisationen, festzustellen, ob sie konkret betroffen sind. Die Stichprobe ist zufällig, die Daten sind weitgehend anonymisiert, direkte Benachrichtigungen der Nutzer oder Organisationen sind nicht vorgesehen. Aus Sicht von Governance, Risk und Compliance geht es daher weniger um die Frage, ob man im Einzelfall „drin“ ist, sondern darum, ob das Risiko, in solchen Verfahren zu landen, überhaupt bewusst gesteuert oder eher zufällig in Kauf genommen wurde. Schließlich wird das nicht der letzte Streit um „KI-Urheberrechte“ sein, der in Zukunft ausgetragen werden dürfte.

Bedeutung für Governance, Risk und Compliance

Der aktuelle Streit um KI-Urheberrecht zeigt deutlich, dass KI-Nutzung nicht nur ein Technik- oder Produktivitäts-Thema ist, sondern unmittelbar in den Verantwortungsbereich von Governance, Risk und Compliance fällt. Auf der Ebene der Governance benötigen Unternehmen und Behörden klare Richtlinien, wie externe KI-Dienste genutzt werden dürfen: Welche Datenarten sind erlaubt, welche sind tabu? Müssen Mitarbeitende zwingend Unternehmensaccounts mit kontrollierten Einstellungen nutzen? Wie werden Schatten-IT und „Shadow AI“ verhindert, bei der Mitarbeitende eigenständig und ohne Freigabe Daten in öffentliche Modelle kopieren?

Auf der Ebene des Risiko-Managements muss bewertet werden, welche Folgen es haben kann, wenn sensible oder vertrauliche Inhalte in die Log- oder Trainingsdaten eines KI-Anbieters gelangen. Der vorliegende Fall zeigt, dass diese Daten später in völlig anderen Kontexten – etwa vor Gericht – wieder auftauchen können, selbst wenn sie formal anonymisiert sind. Das betrifft Geschäftsgeheimnisse ebenso wie Kunden- oder Mandanteninformationen, interne Strategien oder sicherheitsrelevante Abläufe. Auch was das im Kontext der Löschpflichten bzw. dem Recht auf Vergessenwerden nach DSGVO in Art. 17 bedeutet, ist schwer einzuordnen.

Für die Compliance bedeutet der Fall, dass Verarbeitungsverzeichnisse, Auftragsverarbeitungsverträge (DPAs), Datenschutz-Folgenabschätzungen (DSFAs) und interne Richtlinien zum Einsatz externer KI-Dienste um genau diese Szenarien erweitert werden müssen: Was passiert mit unseren Daten, wenn der Anbieter aufgrund eines gerichtlichen Beschlusses zur Offenlegung gezwungen wird? Welche Schutzmechanismen (z. B. Logging-Einstellungen, Speicherdauer, Opt-out-Optionen) haben wir technisch und vertraglich vereinbart? Und wie werden diese heute praktisch eingehalten? Gerne berate ich Sie hier.

Beratung zum Einsatz von KI-Systemen und LLMs durch Elsen GRC

Elsen GRC unterstützt Unternehmen, SaaS-Anbieter und Behörden dabei, den Einsatz von KI-Systemen wie ChatGPT und anderen Large Language Models GRC-sicher zu gestalten. Dazu gehören die Entwicklung und Einführung klarer KI-Nutzungsrichtlinien (AI Policies), die Definition zulässiger und unzulässiger Datenkategorien, der Risiko-Check beim Einsatz von KI, sowie die Gestaltung von Governance-Strukturen, mit denen Shadow-AI und unkontrollierte Nutzung externer KI-Dienste reduziert werden.

Gemeinsam mit Ihnen analysiere ich, welche Daten heute bereits in externe Modelle fließen, welche Risiken daraus entstehen und wie diese vertraglich, organisatorisch und technisch abgesichert werden können – etwa durch den Einsatz kontrollierter Unternehmenszugänge, restriktiver Logging-Policies, EU- oder On-Prem-Hosting-Varianten. Ziel ist es, die Vorteile moderner KI sinnvoll zu nutzen, ohne die Organisation im Streit um KI-Urheberrecht oder bei Datenschutz- und Sicherheitsfragen unnötig angreifbar zu machen.

Melden Sie sich gerne für ein unverbindliches Erstgespräch.


Foto: Rafael Hoyos Weht – Unsplash.com

Quellen:

Leave a Reply