Die Europäische Union verfolgt mit der KI-Verordnung einen risikobasierten Ansatz, der vorrangig auf ex ante-Compliance-Verpflichtungen für KI-Systeme setzt. Dadurch rückte die Haftungsfrage im Rechtsetzungsverfahren zunächst in den Hintergrund. Dennoch bleibt die Frage der zivilrechtlichen Haftung bei durch Künstliche Intelligenz (KI) verursachten Schäden hochaktuell. Eine im Juli 2025 veröffentlichte Studie des Europäischen Parlaments, beauftragt vom Policy Department for Justice, Civil Liberties and Institutional Affairs, beleuchtet diesen Bereich kritisch.
Die Veröffentlichung erfolgte zu einem brisanten Zeitpunkt. Die Europäische Kommission hatte im Februar unlängst ankündigt, den Vorschlag für die KI-Haftungsrichtlinie (AI Liability Directive) in ihrem Arbeitsprogramm 2025 zurückzuziehen, da keine Einigung erwartet wird. Die Studie analysiert die Entwicklungen der EU-Regulierung. Sie betont im Ergebnis die Notwendigkeit eines klaren, harmonisierten Haftungsregimes, um Rechtsunsicherheit und Marktfragmentierung zu vermeiden.
Bisherige Entwicklung der KI-Haftung
Der europäische Ansatz zur Regulierung autonomer Technologien durchlief im Jahr 2025 eine Verschiebung. Ursprünglich sah das Europäische Parlament im Jahr 2017 Haftungsregeln, insbesondere eine strenge oder risikobasierte Haftung für Betreiber, als zentrales Regulierungsinstrument vor, ergänzt durch ethische Leitlinien. Experten bekräftigten diese Sichtweise und schlugen vor, eine verschuldensunabhängige Haftung für Betreiber einzuführen, um Risiken zu internalisieren. Der letzte Entwurf einer AI Liability Directive (AILD) stammt von 2022. Mit der KI-Verordnung, die 2024 angenommen wurde, dominieren nun jedoch ex ante-Compliance-Pflichten. Die Europäische Kommission versuchte zwar, mit der AILD eine Ergänzung der nationalen Haftungsregeln zu schaffen, indem sie prozedurale Hilfsmittel wie Auskunftsansprüche und Kausalitätsvermutungen einführen wollte. Doch die Studienautoren sind der Auffassung, dass dieser Ansatz die zugrundeliegende Problematik der heterogenen und komplexen nationalen Haftungsregime in den Mitgliedstaaten nicht lösen könnte. Dies sei auch der Grund für die Rücknahme des AILD-Vorschlags.
Warum die Produkthaftungsrichtlinie unzureichend bleibt
Die Studienautoren des Europäischen Parlaments sind sich einig, dass die revidierte Produkthaftungsrichtlinie die spezifischen Risiken von KI nur unzureichend adressiert, obwohl Software nun explizit als Produkt gilt. Die Mängel der Produkthaftungsrichtlinie, die bereits in ihrer ursprünglichen Fassung von 1985 festgestellt wurden, würden durch die Eigenschaften von KI-Systemen wie Komplexität, Autonomie und Lernfähigkeit noch verschärft.
Strukturelle Schwächen der Produkthaftung für KI
Die Produkthaftungsrichtlinie weise demnach mehrere strukturelle Schwächen auf. Dazu gehört insbesondere die Beibehaltung der sogenannten Entwicklungsrisikodefence. Diese Regelung erlaubt es Herstellern, der Haftung zu entgehen, wenn ein Mangel nach dem Stand der wissenschaftlichen und technischen Kenntnisse zum Zeitpunkt des Inverkehrbringens nicht erkennbar war. Dies untergrabe den angeblich strengen Charakter der Haftung und führe de facto zur Wiedereinführung der Verschuldenslogik.
Darüber hinaus sei die Haftung nach der Produkthaftungsrichtlinie auf das Fehlen der Sicherheit, die vernünftigerweise erwartet werden kann, beschränkt. Reine Performance-Mängel, wie sie typischerweise bei KI-Anwendungen (z. B. fehlerhafte Diagnosesoftware oder Chatbots, die falsche Informationen liefern) auftreten, werden dadurch nicht erfasst. Zudem schließt die Richtlinie die Entschädigung für Schäden am mangelhaften Produkt selbst aus. Dies reduziere den Anreiz zur Klage erheblich, insbesondere bei komplexen und hochpreisigen KI-Systemen wie autonomen Fahrzeugen, bei denen der größte Schaden oft am Fahrzeug selbst entsteht.
Die Studie kommt daher zu dem Schluss, dass die Produkthaftungsrichtlinie zwar prozedurale Anpassungen (Offenlegungspflichten, Beweisvermutungen) vornehme, ihre grundlegenden strukturellen Einschränkungen aber intakt lasse.
Der „KI-Beauftragte“ – Ihre Lösung für rechtssichere KI-Compliance

Kritik am Entwurf der KI-Haftungsrichtlinie
Die Studie äußert auch Kritik am AILD Entwurf. Die zurückgezogene AI Liabilty Directive (KI-Haftungsrichtlinie) versuche, die Haftungslücken lediglich durch prozessuale Erleichterungen zu schließen. Dies stehe im Gegensatz zur Empfehlung der Studie, die eine klare materielle Haftungsnorm (Gefährdungshaftung) verlange. Die prozeduralen Instrumente des AILD – wie der Auskunftsanspruch und die Beweisvermutungen – sind komplex und dürften die Prozesskosten für Kläger erhöhen, anstatt sie zu reduzieren. Beispielsweise werde das Gericht durch vage Formulierungen wie „übermäßige Schwierigkeiten“ oder „technische Komplexität“ zu weitreichenden Ermessensentscheidungen gezwungen, was letztlich zu inkonsistenten Urteilen in den Mietgliedstaaten führen kann. Dies habe die Rechtsunsicherheit für Unternehmen nur weiter verstärkt.
Gleichzeitig sehen die Autoren in der (verworfenen) Haftungsrichtlinie eine unnötige Harmonisierung des materiellen Rechts. Obwohl die Richtlinie nur Mindestharmonisierung anstrebte, hätte sie unweigerlich zu unbeabsichtigten Eingriffen in die tief verwurzelten nationalen Rechtsgrundsätze von Verschulden und Kausalität geführt. Da die Definition des Verschuldens in der AILD objektiv (Verletzung spezifischer KI-Pflichten) gefasst wurde, hätte dies zu Konflikten mit nationalen, subjektiven Haftungsregimen (z. B. Arzthaftungsrecht) führen können.
KI-Versicherung als Zukunft für Unternehmen?
Vor dem Hintergrund fehlender einheitlicher Haftungsregeln auf EU-Ebene gewinnt die Absicherung von KI-Risiken zunehmend an Bedeutung. Zwar sieht die Studie des Europäischen Parlaments eine klar ausgestaltete, risikobasierte Gefährdungshaftung für Hochrisiko-KI-Systeme als sachgerechte Lösung, um Kausalitätsprobleme und Überschneidungen bestehender Haftungsregime zu vermeiden. In der Praxis liegt die Verantwortung aber weiterhin beim Betreiber der KI-Systeme. Unabhängig von einer harmonisierten EU-Haftungsrichtlinie sind Unternehmen als Betreiber für den Output ihrer KI-Systeme verantwortlich. Eine ungeprüfte Übernahme von KI-generierten Inhalten oder Daten kann eine Sorgfaltspflichtverletzung darstellen. Unternehmen müssen daher ihre KI-Compliance eigenständig und vorausschauend ausgestalten. Vor diesem Hintergrund rücken strukturierte Risikomanagement-Ansätze in den Fokus, mit denen KI-Risiken identifiziert, bewertet und perspektivisch versicherbar gemacht werden können. Parallel dazu sind bei der Nutzung externer KI-Tools zwingend datenschutz- und berufsrechtliche Vorgaben zu beachten. Insbesondere klare interne Vorgaben zur Anonymisierung sensibler Daten sind Voraussetzung für einen rechtssicheren und versicherungsfähigen KI-Einsatz.
Fazit
Die Rücknahme der KI-Haftungsrichtlinie verdeutlicht die derzeitige Priorisierung der ex-ante-Compliance-Pflichten der KI-Verordnung gegenüber einer europaweiten Harmonisierung der zivilrechtlichen Haftung. Damit bleibt ein einheitlicher Haftungsrahmen für KI vorerst aus. Streitigkeiten, die nicht von der Produkthaftungsrichtlinie erfasst sind – insbesondere bei reinen Leistungsfehlern oder Schäden am mangelhaften Produkt selbst – werden somit weiterhin nach nationalem Recht beurteilt. Dies erhöht jedoch die Rechtsunsicherheit für grenzüberschreitend tätige Unternehmen und birgt die Gefahr einer weiteren Fragmentierung durch nationale Sonderwege.
Zugleich zeigt die aktuelle Rechtsprechung, dass die Haftung regelmäßig beim menschlichen Akteur oder Betreiber verortet wird. Unternehmen bleiben für KI-generierte Inhalte und Entscheidungen verantwortlich. Vor diesem Hintergrund gewinnen klare Governance-Strukturen, umfassende Dokumentation, menschliche Aufsicht und belastbare Tests an Bedeutung, um Haftungsrisiken zu kontrollieren. Ergänzend ist mit einer wachsenden Relevanz von KI-spezifischen Haftpflichtversicherungen zu rechnen, da bestehende Policen viele KI-Risiken nicht abdecken. Proaktive Compliance- und Risikomanagement-Strategien werden damit zu einem zentralen Erfolgsfaktor im Umgang mit KI.
Die Entwicklung und Nutzung von KI verlangt nicht nur technische Anpassungen, sondern ein neues Verständnis von Haftung, Governance und Compliance. KINAST berät Sie praxisnah bei der Einführung von KI-Systemen und unterstützt bei Audits, Risikobewertungen und der Erstellung interner Leitlinien.








