Die Medienunternehmen RTI und Medusa Film haben Klage gegen den US-Anbieter Perplexity AI erhoben. Erstmals in Italien steht damit die systematische Nutzung urheberrechtlich geschützter Inhalte für das Training von KI-Systemen auf dem Prüfstand. Der Fall zeigt, dass KI-Training strengen urheber- und datenschutzrechtlichen Anforderungen unterliegt. Da die rechtlichen Risiken für Anwender und Anbieter gleichermaßen steigen, ist eine proaktive Prüfung der genutzten Systeme unerlässlich, um teure Haftungsrisiken zu vermeiden.
Urheberrecht und KI im Konflikt
Im Zentrum der italienischen Klage steht der Vorwurf, dass Perplexity AI massenhaft audiovisuelle Inhalte ohne Erlaubnis zum Training seines Large Language Models (LLM) „Sonar“ genutzt hat. Die Kläger argumentieren, dass das KI-Training eine Form der wirtschaftlichen Verwertung darstelle, die über eine rein technische Nutzung hinausgehe und somit die Zustimmung der Rechteinhaber erfordere. Dabei bestreiten sie insbesondere die Anwendbarkeit von Ausnahmen für Text- und Data-Mining (TDM), da die massive und kommerzielle Nutzung den normalen Erwerbszweck der Werke beeinträchtige.
Text- und Data-Mining
Rechtlicher Ausgangspunkt ist die europäische CDSM-Richtlinie (2019/790/EU). Danach priveligiert Art. 3 Text- und Data-Mining zu wissenschaftlichen Zwecken, während Art. 4 TDM grundsätzlich erlaubt, sofern kein ausdrücklicher, maschinenlesbarer Nutzungsvorbehalt (Opt-out) erklärt wurde. Die Kläger im Fall Perplexity AI sowie aktuelle Studien im Auftrag des EU-Parlaments führen jedoch an, dass diese TDM-Ausnahmen eng auszulegen sind. Denn sie wurden ursprünglich für rein analytische Zwecke konzipiert, nicht aber für das expressive Training generativer KI-Modelle. Denn dies stelle eine völlig neue Form der wirtschaftlichen Verwertung dar.
Diese Ausnahmen sind jedoch eng auszulegen und müssen dem sogenannten Drei-Stufen-Test der InfoSoc-Richtlinie genügen. Dieser Test besagt, dass Urheberrechtsausnahmen nur in bestimmten Sonderfällen zulässig sind, sofern sie die normale Verwertung der Werke nicht beeinträchtigen und die berechtigten Interessen der Urheber nicht unzumutbar verletzen. Im aktuellen Diskurs wird aber bezweifelt, ob das unvergütete Training von KI-Modellen diesen Test bestehen kann. Denn KI-Anwendungen konkurrieren oft direkt mit den Originalinhalten und schmälern deren wirtschaftlichen Wert. Für Unternehmen erwächst daraus ein erhebliches Haftungsrisiko, weshalb eine detaillierte Prüfung der Lizenzierungsgrundlagen genutzter KI-Systeme heute zum Pflichtprogramm jeder Compliance-Strategie gehört.
DSGVO und die Hürden beim KI-Training
Neben dem Urheberrecht bleibt die DSGVO der zentrale Ankerpunkt für die rechtssichere Gestaltung von KI-Prozessen. Die französische Aufsichtsbehörde CNIL betont, dass sich die Entwicklung von KI-Systemen zwar auf das berechtigte Interesse (Artikel 6 Absatz 1 Buchstabe f DSGVO) stützen kann, dies jedoch an strenge Bedingungen und eine sorgfältige Dokumentation geknüpft ist. Besonders kritisch ist dabei das Web Scraping zu sehen, da die massenhafte Erhebung von Online-Daten die Rechte der Betroffenen nicht unverhältnismäßig beeinträchtigen darf. Unternehmen, die KI-Dienste in ihre Prozesse integrieren, müssen daher sicherstellen, dass die zugrunde liegenden Daten rechtmäßig erhoben wurden, da unzulässige Datenverarbeitungen direkt auf die eigene Compliance-Bilanz durchschlagen.
Was Unternehmen jetzt beachten sollten
Die aktuellen Verfahren gegen Branchengrößen wie Perplexity, OpenAI oder Google unterstreichen den dringenden Handlungsbedarf für die Wirtschaft. Unternehmen müssen klären, wie sie die Nutzung ihrer eigenen Daten technisch und lizenzrechtlich kontrollieren können, während sie gleichzeitig die Rechtskonformität eingekaufter KI-Lösungen sicherstellen. Es ist ratsam, interne Kontrollmechanismen für KI-Outputs einzuführen und die vertragliche Gestaltung mit Anbietern auf eine belastbare Basis zu stellen. Da „Löschen“ im KI-Kontext oft nicht endgültig ist, sind einmal im Datensatz befindliche Daten nur durch Löschen des Datensatzes selbst entfernbar.
Fazit
Die Klage gegen Perplexity AI ist ein deutliches Signal, dass die Zeit der rechtlichen Unsicherheit beim KI-Training endet. Für Unternehmen bedeutet dies, dass ein bloßes „Abwarten“ keine Option mehr ist, wenn sie sich vor Urheberrechtsverletzungen und DSGVO-Bußgeldern schützen wollen. Wir unterstützen Sie dabei, diese komplexen Herausforderungen zu meistern. Durch maßgeschneiderte KI-Beratung, spezifische KI-Schulungen oder als externer KI-Beauftragter stellen wir Ihre Organisation zukunftssicher auf. Investieren Sie jetzt in rechtssichere Strukturen, um die Chancen der Künstlichen Intelligenz verantwortungsvoll und ohne rechtliche Altlasten nutzen zu können.
KI-Compliance aus einer Hand
Künstliche Intelligenz rechtssicher nutzen & entwickeln
- KINAST KI-Beratung
- KINAST externer KI-Beauftragter
- KINAST KI-Kompetenz-Schulungen









