Ein Gericht in Belgien rügte kürzlich in einer Entscheidung die Einreichung substanzloser Dokumente und frei erfundener Gerichtsurteile in einem gerichtlichen Reorganisationsverfahren. Dieser Fall verdeutlicht die Haftungs- und Reputationsrisiken, die mit der unkontrollierten Nutzung generativer KI-Systeme in der beruflichen Arbeit verbunden sind. Die Entscheidung unterstreicht, dass die technologische Unterstützung niemals die menschliche Letztverantwortung für den Inhalt rechtlicher oder geschäftlicher Schriftsätze ersetzen sollte.
KI-Halluzinationen als Haftungsrisiko
Obwohl die Integration von Sprachmodellen erhebliche Effizienzgewinne verspricht, birgt sie das Risiko sogenannter KI-Halluzinationen, bei denen das System falsche Fakten oder Quellen erfindet. Da diese Modelle lediglich statistische Wahrscheinlichkeiten abbilden und über kein echtes Verständnis der Rechtslage verfügen, können sie „Workslop“ produzieren – inhaltlich substanzlose Texte, die zwar professionell wirken, aber keinen sachlichen Wert besitzen. Ein blindes Vertrauen in diese Ergebnisse, der sogenannte Automation Bias, führt dazu, dass Anwender kritische Prüfschritte vernachlässigen und dadurch ihre Sorgfaltspflichten verletzen.
Belgisches Gericht rügt KI-generierte Inhalte
In dem belgischen Verfahren reichte ein Unternehmen einen Sanierungsplan ein, den das Gericht als 22-seitiges, inhaltsloses Dokument aus hohlen Phrasen und irrelevanten allgemeinen Strategien einstufte. Besonders rügte das Gericht jedoch den anschließenden Antrag auf Wiederaufnahme der Verhandlungen. Dort zitierte der Rechtsbeistand verschiedene Urteile, die faktisch nicht existierten. Das Gericht konnte nachweisen, dass diese fiktiven Zitate exakt mit den Antworten übereinstimmten, die Googles „AI-Modus“ auf entsprechende Anfragen generierte. In der Folge entschied das Gericht, die Debatten erneut zu öffnen, um über die Verhängung einer Geldstrafe wegen rechtsmissbräuchlichen und unsachgemäßen KI-Einsatzes zu entscheiden.
Berufsrechtliche Pflichten beim Einsatz von KI
Die Bundesrechtsanwaltskammer (BRAK) und der Deutsche Anwaltverein (DAV) haben bereits in ihren Leitfäden klargestellt, dass KI-Systeme lediglich als Unterstützung dienen dürfen und die anwaltliche Tätigkeit nicht ersetzen können. Eine eigenverantwortliche Endkontrolle sämtlicher Ergebnisse ist zwingend erforderlich, wobei insbesondere jede zitierte Fundstelle auf ihre Existenz und Richtigkeit geprüft werden muss. Im Gegensatz zu erfahrenen Mitarbeitern dürfe KI-generierten Arbeitsprodukten kein „Grundvertrauen“ entgegengebracht werden. Zudem ist die Verschwiegenheitspflicht und ohnehin die DSGVO zu wahren, indem sensible Daten vor der Eingabe in öffentliche Tools vollständig anonymisiert oder nur abstrakte Prompts verwendet werden.
Rechtsprechung zu KI-Halluzinationen in Deutschland
Die belgische Entscheidung spiegelt die Tendenz in der deutschen Rechtsprechung wider. Zuletzt rügte das AG Köln die ungeprüfte Übernahme von KI-Halluzinationen als Verstoß gegen das berufsrechtliche Sachlichkeitsgebot gemäß § 43a Abs. 3 BRAO. Über die Anwaltschaft hinaus erinnert dieser Fall auch Gutachter und Sachverständige an ihre Pflicht zur persönlichen und gewissenhaften Aufgabenerfüllung, die nicht an eine Maschine delegiert werden kann. Das Landgericht Darmstadt versagte sogar bereits einem Sachverständigen seinen Anspruch auf Vergütung, weil er sein Gutachten maßgeblich von einer KI generieren ließ, ohne dies offenzulegen.
Warum Unternehmen eine klare KI-Strategie brauchen
Der Fall aus Gent zeigt exemplarisch, dass unkontrollierter KI-Einsatz schnell zu Haftungs- und Reputationsrisiken führen kann. Zugleich verpflichtet die EU-KI-Verordnung mit Artikel 4 Unternehmen dazu, eine ausreichende KI-Kompetenz sicherzustellen. Beides spricht dafür, den Einsatz generativer KI nicht isoliert, sondern strategisch zu steuern. Gerade in rechtlichen, beratenden und sonstigen risikobehafteten Anwendungsfeldern reicht es nicht aus, KI-Tools lediglich bedienen zu können. Erforderlich ist ein Verständnis für die systemischen Grenzen generativer Modelle, für typische Fehlerbilder wie Halluzinationen sowie für die Notwendigkeit einer konsequenten fachlichen Endkontrolle.
Fehlt diese Kompetenz, leidet nicht nur die Qualität der Arbeitsergebnisse. Auch Ansehen und Glaubwürdigkeit geraten in Gefahr, insbesondere dort, wo Aussagen, Gutachten oder Schriftsätze einer externen Prüfung standhalten müssen. Fehlerhafter „Workslop“ bleibt selten folgenlos. Er führt zu Nacharbeit, erhöhten Haftungsrisiken und spürbaren wirtschaftlichen Schäden. Governance fungiert in diesem Zusammenhang als zentrales Steuerungsinstrument. Klare Regeln zum Einsatz von KI, verbindliche Prüf- und Freigabeprozesse sowie eine eindeutige Zuordnung menschlicher Verantwortung sind unerlässlich, um Risiken beherrschbar zu machen. Eine wirksame Governance schützt nicht nur vor rechtlichen und reputativen Schäden, sondern stellt auch sicher, dass KI tatsächlich zur Effizienzsteigerung beiträgt und nicht unbemerkt neue Kosten- und Qualitätsprobleme erzeugt.
Fazit
Der Fall aus Gent zeigt, dass der unkritische Einsatz von KI erhebliche rechtliche, reputative und wirtschaftliche Folgen haben kann. Er wirkt als Weckruf für alle Organisationen, die generative KI in professionellen Kontexten einsetzen. Technologische Innovation entbindet weder von Sorgfaltspflichten noch von der persönlichen Verantwortung für Inhalte, Argumentationen und Entscheidungen. Wer KI als bequeme Abkürzung nutzt und auf kritische Kontrolle verzichtet, riskiert nicht nur rechtliche Sanktionen und einen nachhaltigen Verlust an Glaubwürdigkeit vor Gericht und gegenüber Geschäftspartnern.
Eine verantwortungsvolle und rechtssichere Nutzung von KI erfordert daher das Zusammenspiel aus fundierter KI-Kompetenz, klarer Governance und konsequenter menschlicher Letztverantwortung. Transparenz über den KI-Einsatz, wie sie auch die KI-VO vorsieht und im Entwurf des Verhaltenskodex der EU-Kommission erläutert wird, wird künftig ein integraler Bestandteil ordnungsgemäßer Beratungs- und Unternehmenspraxis sein. Unternehmen und Kanzleien sind gut beraten, den Einsatz von KI nicht nur technisch, sondern auch haftungs-, vergütungs- und berufsrechtlich sauber zu strukturieren. Haben Sie Fragen zur rechtssicheren Nutzung von KI? Wir beraten Sie bei KI-Governance, KI-Kompetenz und der Integration generativer Systeme.
KI-Compliance aus einer Hand
Künstliche Intelligenz rechtssicher nutzen & entwickeln
- KINAST KI-Beratung
- KINAST externer KI-Beauftragter
- KINAST KI-Kompetenz-Schulungen









