EU-Kommission: Vorerst keine KI-Haftungsrichtlinie

31. März 2025

EU-Kommission: Vorerst keine KI-HaftungsrichtlinieDie Europäische Union strebt mit verschiedenen Initiativen danach, einen rechtlichen Rahmen für Künstliche Intelligenz (KI) zu schaffen. Ein wichtiger Baustein in diesem Vorhaben war die geplante Richtlinie zur Anpassung der außervertraglichen zivilrechtlichen Haftungsvorschriften an die Künstliche Intelligenz (KI-Haftungsrichtlinie, AI Liability Directive). Ziel dieser Richtlinie war es, den Geschädigten von Schäden, die durch KI-Systeme verursacht werden, einen gleichwertigen Schutz zu bieten wie Opfern von Schäden, die durch andere Produkte verursacht wurden. Nun hat die Kommission die KI-Haftungsrichtlinie in ihrem Arbeitsprogramm für 2025 zurückgezogen.

Hintergrund und Ziel der KI-Haftungsrichtlinie

Die Europäische Kommission erkannte bereits in ihrem Bericht von 2020 die spezifischen Herausforderungen, die KI für bestehende Haftungsregeln darstellt. Eine Umfrage aus demselben Jahr deutete darauf hin, dass die Haftung zu den größten Hindernissen für die Nutzung von KI durch europäische Unternehmen zählte. Die bestehenden nationalen Haftungsregeln, die oft auf Verschulden basieren, erschweren es Geschädigten, die Verantwortlichen zu identifizieren und die notwendigen Beweise zu erbringen. Dies könnte dazu führen, dass Geschädigte von der Geltendmachung von Schadensersatzansprüchen abgeschreckt werden.

Die geplante Richtlinie zielte darauf ab, den Binnenmarkt zu stärken durch die Festlegung einheitlicher Anforderungen für bestimmte Aspekte der außervertraglichen zivilrechtlichen Haftung für Schäden, die unter Beteiligung von KI-Systemen verursacht werden. Sie sollte insbesondere bei verschuldensabhängigen Haftungsregimen Anwendung finden.

Kernpunkte des Kommissionsvorschlags

Der ursprüngliche Vorschlag der Kommission erschienen im September 2022 sah im Wesentlichen zwei Mechanismen zur Erleichterung der Beweislast für Geschädigte vor:

Auskunftsanspruch:

Nationale Gerichte sollten die Befugnis erhalten, die Offenlegung relevanter Beweismittel über spezifische Hochrisiko-KI-Systeme, die mutmaßlich Schäden verursacht haben, anzuordnen. Dieser Anspruch sollte sich gegen Anbieter, Personen, die den Pflichten des Anbieters unterliegen, oder Nutzer richten und durch hinreichende Anhaltspunkte für einen Schadensersatzanspruch untermauert sein. Es sollten jedoch Schutzmaßnahmen für sensible Informationen wie Geschäftsgeheimnisse gelten.

Vermutung des Kausalzusammenhangs:

Für den Kläger kann es schwierig sein, einen Kausalzusammenhang zwischen der Verletzung einer Sorgfaltspflicht nach EU- oder nationalem Recht und dem Ergebnis des KI-Systems oder dem Versäumnis des KI-Systems, eine Leistung zu erbringen, die zu dem betreffenden Schaden geführt hat, nachzuweisen.

Daher sah der Vorschlag eine gezielte widerlegbare Vermutung hinsichtlich dieses Kausalzusammenhangs vor. Die widerlegbaren Vermutungen sollten dem Geschädigten eine Chance geben, mit berechtigten Haftungsansprüchen Erfolg zu haben. Das Verschulden des Beklagten muss vom Kläger nach den geltenden unionsrechtlichen oder nationalen Vorschriften nachgewiesen werden. Ein solches Verschulden kann z. B. bei der Nichteinhaltung einer Sorgfaltspflicht nach dem KI-Gesetz oder nach anderen auf Unionsebene erlassenen Vorschriften festgestellt werden.

Aktueller Stand und Entwicklungen 

Im Europäischen Parlament ist der Rechtsausschuss (JURI) für das Dossier zur KI-Haftungsrichtlinie zuständig.  In Zusammenarbeit mit dem Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO). Im Laufe des Verfahrens fanden mehrere Diskussionen und Anhörungen statt, bei denen unterschiedliche Positionen zur Harmonisierung des außervertraglichen zivilrechtlichen Haftungsrahmens für KI-Produkte deutlich wurden. Der Europäische Wirtschafts- und Sozialausschuss (EESC) und der Europäische Datenschutzbeauftragte (EDSB) nahmen ebenfalls 2023 Stellung zum Entwurf.

EPRS: Kritik und Verbesserungsvorschläge

Ein wichtiger Schritt war die Veröffentlichung einer ergänzenden Folgenabschätzung durch den Europäischen Parlamentarischen Forschungsdienst (EPRS) im September 2024. Diese Studie schlug vor, den Anwendungsbereich der Richtlinie auf Allzweck-KI-Systeme und andere “High-Impact AI-Systeme” sowie Software auszudehnen. Des weiteren könne ein gemischtes Haftungsrahmenwerk in Frage kommen, das Verschuldens- und Gefährdungshaftungselemente kombiniert. Die Studie empfahl sogar einen Übergang von einer KI-fokussierten Richtlinie zu einer Softwarehaftungsverordnung, um Marktfragmentierung zu vermeiden.

Der Berichterstatter beabsichtigte, seinen Entwurf des Berichts am 4. Juni 2025 zu veröffentlichen, gefolgt von einer Abstimmung im JURI-Ausschuss im Januar 2026 und im Plenum des Parlaments im Februar 2026. Der IMCO-Ausschuss hatte ebenfalls einen Zeitplan für die Verabschiedung seiner Stellungnahme veröffentlicht.

Der unerwartete Rückzug der Kommission

Die jüngste Entwicklung ist die Ankündigung der Europäischen Kommission, den Vorschlag für die KI-Haftungsrichtlinie in ihrem Arbeitsprogramm für 2025 zurückzuziehen. Die Kommission begründet diesen Schritt damit, dass keine Einigung auf dieser Basis erwartet wird. Es wird jedoch geprüft, ob ein neuer Vorschlag unterbreitet oder ein anderer Ansatz gewählt werden sollte.

Diese Entscheidung wird durch verschiedene Änderungsanträge des IMCO-Ausschusses gestützt, die eine Ablehnung des Kommissionsvorschlags fordern. Zur Begründung wird angeführt, dass die Verabschiedung der Produkthaftungsrichtlinie, die nun auch Software und damit KI umfasst, sowie die KI-VO die Notwendigkeit einer separaten KI-Haftungsrichtlinie hinfällig gemacht habe. Zudem wird argumentiert, dass die bestehenden nationalen Deliktsrechte bereits Möglichkeiten für Schadensersatzansprüche bieten. Die vorgeschlagene Richtlinie könnte die Anwendung von KI in Europa eher behindern. Es wird die Gefahr einer Überregulierung und möglicher regulatorischer Lücken für andere Produkte betont.

Weitere Änderungsanträge

Die am 21. Februar 2025 veröffentlichten 58 Änderungsanträge sehen daneben aber auch diverse Modifikationen des ursprünglichen Kommissionsvorschlags vor. Dazu zählt beispielsweise die Erweiterung des Anwendungsbereichs. Statt auf Hochrisiko-KI-Systeme beschränkt zu sein, solle die Richtlinie für alle KI-Systeme gelten. Darunter solche mit systemischem Risiko für den Binnenmarkt.

Darüber hinaus beinhalten die Änderungsanträge eine präzisere Begriffsbestimmung, die Ausweitung der Haftung auf nicht-materielle Schäden sowie eine Stärkung der Offenlegungspflichten. Zudem wird eine erleichterte Beweisführung für Geschädigte durch Kausalitätsvermutungen vorgeschlagen, ergänzt durch die Einführung einer Gefährdungshaftung für bestimmte KI-Systeme. Mehrere verantwortliche Akteure sollen gesamtschuldnerisch haften können, und die Überprüfung der Richtlinie soll mit der Evaluierung der Produkthaftungsrichtlinie koordiniert werden.

Ausblick

Die Rücknahme des Vorschlags zur KI-Haftungsrichtlinie markiert einen überraschenden Einschnitt in den Bestrebungen zur EU-weiten Harmonisierung der Haftung bei KI-Schäden. Bis auf Weiteres bleibt es bei 27 unterschiedlichen nationalen Haftungsregelungen. Der in der Richtlinie vorgesehene Auskunftsanspruch und der vermutete Kausalzusammenhang hätten potenziell dazu beitragen können, die für den Nachweis von Schäden relevanten Informationen leichter zugänglich zu machen.

Die intensiven Debatten im Europäischen Parlament, insbesondere die Änderungsanträge des IMCO-Ausschusses, verdeutlichen jedoch, dass die Schnittstellen zwischen KI-Verordnung, Produkthaftungsrichtlinie und einer möglichen KI-Haftungsregelung noch nicht abschließend geklärt sind. Ob die Europäische Kommission künftig einen neuen Anlauf zur Regelung der KI-Haftung unternimmt, bleibt offen.