Die Integration generativer künstlicher Intelligenz in Suchmaschinen wie Google, Chatbots und andere digitale Dienste verändert die Informationsvermittlung grundlegend. Zugleich treten neue rechtliche Risiken zutage, wenn KI-Systeme wie Googles KI-Zusammenfassungen objektiv falsche, irreführende oder geschäftsschädigende Inhalte generieren. Zwei aktuelle Entscheidungen der Landgerichte Frankfurt am Main und Hamburg markieren nun einen wichtigen Wendepunkt: Erstmals befassen sich deutsche Gerichte konkret mit der rechtlichen Verantwortlichkeit für sogenannte KI-Halluzinationen – sowohl im Wettbewerbs- und Kartellrecht als auch im Persönlichkeitsrecht.
Kartellrechtliche Schranken für KI-Zusammenfassungen
Im Mittelpunkt der Entscheidung des Landgerichts Frankfurt (2-06 O 271/25) stand eine KI-generierte Suchübersicht von Google („AI Overview“), die medizinisch unzutreffende Angaben zu einer chirurgischen Behandlung enthielt. Ein Ärzteverbund sah darin eine geschäftsschädigende Falschdarstellung und begehrte im Eilverfahren Unterlassung.
Das Gericht stellte zunächst klar, dass eine Haftung für fehlerhafte KI-Inhalte nicht von vornherein ausgeschlossen ist. Insbesondere bei marktmächtigen Suchmaschinenbetreibern komme eine Verantwortlichkeit nach dem Gesetz gegen Wettbewerbsbeschränkungen (GWB) grundsätzlich in Betracht. Objektiv falsche Aussagen in KI-Übersichten könnten eine unbillige Behinderung im Sinne der §§ 19, 33 GWB darstellen, wenn sie Wettbewerber systematisch benachteiligen. Dies gelte insbesondere dann, wenn durch die prominent platzierte KI-Antwort der Zugang zu den eigentlichen Webseiten der Anbieter erschwert wird, was als „Zero-Click-Phänomen“ bezeichnet wird. Für die Praxis bedeutet dies, dass das Kartellrecht zwar ein Instrument gegen geschäftsschädigende KI-Inhalte bietet, betroffene Unternehmen jedoch nachweisen müssen, dass die Darstellung im gesamten Kontext tatsächlich irreführend wirkt.
Die Hürde der „unbilligen Behinderung“ und die Bedeutung des Gesamtkontexts
Trotz der grundsätzlichen Öffnung für kartellrechtliche Ansprüche scheiterte der konkrete Antrag im Eilverfahren. Das Landgericht betonte, dass eine Unterlassung nur bei einer Gesamtwürdigung aller Umstände in Betracht komme. Maßgeblich sei, wie die beanstandete Aussage im Gesamtkontext der KI-Antwort auf den durchschnittlichen Nutzer wirke.
Im entschiedenen Fall sah das Gericht die medizinisch unpräzise Kernaussage durch nachfolgende Erläuterungen der Zusammenfassung relativiert. Die Darstellung sei deshalb nicht mehr als gravierend irreführend einzustufen gewesen. Der Fehler wurde – so die Richter – durch die Gesamtpräsentation faktisch „neutralisiert“. Gleichwohl stellte das Gericht ausdrücklich klar, dass bei gesundheitsbezogenen Informationen besonders strenge Anforderungen an die inhaltliche Richtigkeit gelten. Hier können Gemeinwohlbelange und das Schutzbedürfnis der Nutzer eine andere Bewertung rechtfertigen. Entsprechend sind sind kartellrechtliche Schritte für Unternehmen nur dann erfolgversprechend, wenn eine KI-Falschaussage auch unter Berücksichtigung des gesamten Antwortkontexts fortwirkt.
Kein eigenständiges „Produkt“ im Sinne des DMA
Im Zusammenhang mit dem Digital Markets Act (DMA) prüfte das Landgericht Frankfurt zudem, ob KI-Übersichten ein eigenständiges Produkt darstellen, das dem Selbstbevorzugungsverbot des Art. 6 Abs. 5 DMA unterfällt. Dies verneinte das Gericht. Nach seiner Auffassung sind KI-Übersichten derzeit lediglich Bestandteil des Suchergebnisses, nicht aber ein separater Dienst. Solange die KI-Antwort unmittelbar der Beantwortung der Suchanfrage dient, greife das DMA-Verbot der Selbstbevorzugung nicht. Für Unternehmen bedeutet dies, dass kartellrechtliche DMA-Argumente gegen KI-Overviews aktuell nur begrenzte Erfolgsaussichten haben.
LG Hamburg: Strikte Haftung für KI-Halluzinationen von Chatbots
Deutlich weiter ging das Landgericht Hamburg in einer Entscheidung zum KI-Chatbot Grok. Gegenstand waren unwahre, ehrabträgliche Tatsachenbehauptungen der zu X gehörenden KI über die Finanzierung einer Organisation. Das Gericht sah hierin eine Verletzung des Vereins- bzw. Persönlichkeitsrechts und erließ eine einstweilige Verfügung. Besonders praxisrelevant ist die klare Zurechnung, wonach der Betreiber des KI-Systems sich die Aussagen des Chatbots wie eigene Äußerungen zurechnen lassen müsse. Allgemeine Hinweise auf die Fehlbarkeit von KI oder pauschale Haftungsausschlüsse genügen nicht, um die Verantwortung zu relativieren. Damit etabliert das LG Hamburg eine strenge Linie: Wer KI-Chatbots öffentlich einsetzt, trägt das rechtliche Risiko für deren inhaltliche Aussagen unabhängig von der technischen Komplexität des Systems.
DSA, DMA und KI-Verordnung: Wachsende Compliance-Anforderungen
Die nationale Rechtsprechung fügt sich in einen breiteren europäischen Regulierungsrahmen ein. Der Digital Services Act (DSA) verpflichtet große Online-Plattformen zu Transparenz, Risikobewertung und Maßnahmen gegen systemische Desinformation. Bereits jetzt stehen KI-Dienste (wie Google und X) wegen mangelnder Nachvollziehbarkeit und möglicher Gefährdung der Medienvielfalt im Fokus regulatorischer Verfahren. Parallel zum DAS und DMA begründet die KI-Verordnung zusätzliche Pflichten zur Risikominimierung, Dokumentation und menschlichen Aufsicht. KI-Halluzinationen werden damit zunehmend nicht nur ein technisches, sondern ein regulatorisches Risiko.
Schlussfolgerungen für die Unternehmens-Compliance
Das Urteil sendet ein wichtiges Signal an alle Unternehmen, die von digitaler Sichtbarkeit abhängig sind. Während die Richter Google und ähnlichen Anbietern keinen „Freifahrtschein“ ausstellen, sind die Hürden für eine erfolgreiche Klage hoch. Unternehmen müssen sich zudem mit dem Digital Services Act (DSA) auseinandersetzen, der Transparenzpflichten für Online-Suchmaschinen festlegt, um gegen Desinformation und Intransparenz bei KI-Modellen vorzugehen. Die Gefahr einer Entwertung mühsam erstellter Inhalte durch KI-Zusammenfassungen, die den Traffic absaugen, bleibt ein reales wirtschaftliches Risiko. Es ist daher ratsam, technische und lizenzrechtliche Kontrollen zu prüfen, um die Nutzung eigener Daten für das KI-Training großer Plattformen zu steuern. Um Reputationsschäden zu vermeiden kann ein proaktives Monitoring der eigenen Markenrepräsentation in KI-Systemen sowie eine Prüfung der rechtlichen Möglichkeiten nach GWB und DSA entscheidend sein.
Fazit
Zusammenfassend lässt sich festhalten, dass die Rechtsprechung beginnt, Verantwortlichkeiten im Zeitalter der generativen KI zu definieren. Während das LG Frankfurt hohe Hürden für kartellrechtliche Ansprüche gegen KI-Suchergebnisse formuliert, zieht das LG Hamburg bei persönlichkeitsrechtsverletzenden KI-Halluzinationen eine klare Haftungslinie. Unternehmen können sich zwar grundsätzlich gegen geschäftsschädigende Falschangaben wehren, müssen jedoch die hohen Anforderungen an den Nachweis einer unbilligen Behinderung erfüllen. Gleichzeitig rücken durch den DSA und die KI-Verordnung neue Transparenz- und Compliance-Anforderungen in den Fokus, die von den Betreibern der Systeme erfüllt werden müssen.
Die Haftung für sogenannte „Halluzinationen“ von KI-Modellen bleibt ein komplexes Feld an der Schnittstelle von Wettbewerbs-, Datenschutz- und Digitalrecht. Abschließend bleibt festzuhalten, dass eine stringente KI-Compliance und eine enge Abstimmung zwischen Technik- und Rechtsabteilung notwendig sind, um die Potenziale der KI sicher zu nutzen und gleichzeitig die eigene Marktposition zu schützen. Gerne unterstützen wir Sie dabei, Ihre Unternehmens KI-Compliance und praxisgerechte Lösungsansätze zu entwickeln.
KI-Compliance aus einer Hand
Künstliche Intelligenz rechtssicher nutzen & entwickeln
- KINAST KI-Beratung
- KINAST externer KI-Beauftragter
- KINAST KI-Kompetenz-Schulungen









