Die aktuelle Folge des BSI-Podcasts „Update verfügbar“ mit Prof. Dr. Katharina Zweig verdeutlicht eine zentrale Herausforderung für die moderne Unternehmens-Compliance: Künstliche Intelligenz kann zwar rechnen, aber nicht verantworten. Während KI-Systeme zunehmend in Entscheidungsprozesse von der Bewerberauswahl bis zur Kreditvergabe integriert werden, bleibt die rechtliche und ethische Zurechnung eine rein menschliche Aufgabe. Für Unternehmen bedeutet dies, dass der Einsatz von Algorithmen kein Outsourcing der Haftung darstellt, sondern vielmehr neue Anforderungen an die interne Governance und Risikokontrolle stellt.
Die Illusion der autonomen Entscheidung und das Ende der Neutralität
Ein weit verbreiteter Irrtum ist die Annahme, KI-Systeme seien neutrale oder gar intelligente Akteure. Prof. Zweig stellt klar, dass es sich bei heutiger KI primär um Heuristiken handelt – gute Daumenregeln, die auf Mustern in Trainingsdaten basieren, aber keine mathematisch beweisbaren Fakten liefern. Diese Systeme besitzen weder emotionales Taktgefühl noch ein Gewissen.
In der Praxis führt dies oft zu sogenannten Halluzinationen, also der Generierung faktisch falscher, aber überzeugend klingender Inhalte. Wir berichteten bereits über drastische Fälle, in denen Anwälte vor dem AG Köln oder Sachverständige vor dem LG Darmstadt scheiterten, weil sie sich blind auf KI-generierte, fiktive Quellen verlassen hatten. Diese Rechtsprechung unterstreicht, dass die technologische Unterstützung die menschliche Letztverantwortung niemals ersetzt.
Betreiberhaftung
Trotz der technischen Komplexität und der mangelnden Nachvollziehbarkeit von maschinellem Lernen bleibt die rechtliche Verantwortung beim Betreiber des Systems. Wer KI-gestützte Dienste wie Chatbots öffentlich einsetzt, muss für deren inhaltliche Aussagen einstehen. Das LG Hamburg bestätigte dies kürzlich in einem Verfahren gegen die Plattform X, deren Chatbot Grok unwahre Tatsachen behauptet hatte. Auch internationale Urteile, wie gegen eine kanadische Airline, zeigen, dass automatisierte Zusagen von Chatbots für das Unternehmen bindend sind. Da die EU-Kommission den Vorschlag für eine spezifische KI-Haftungsrichtlinie vorerst zurückgezogen hat, bleibt es bei der Anwendung etablierter Haftungsgrundsätze, was die Rechtsunsicherheit für Unternehmen ohne klare Strategie erhöht.
Grenzen der Automatisierung
Ein zentrales Konzept des BSI-Gesprächs für die KI-Governance ist die Unterscheidung zwischen „dünnen“ und „dicken“ Regeln. Während Maschinen einfache, standardisierte Abläufe (dünne Regeln) effizient bearbeiten können, erfordern komplexe Abwägungen von Werten und menschliche Urteilskraft (dicke Regeln) zwingend ein menschliches Eingreifen. KI-Systeme scheitern oft daran zu erkennen, wann sie die Grenze zur „dicken Regel“ überschreiten. Unternehmen, die versuchen, Werturteile wie Benotungen oder Leistungsbewertungen vollständig zu automatisieren, verletzen nicht nur Sorgfaltspflichten, sondern riskieren auch den Verlust ihrer Glaubwürdigkeit und rechtliche Sanktionen.
Handlungsbedarf für Unternehmen: KI-Kompetenz als Pflicht
Der bloße Einsatz von KI-Tools ohne menschliche Endkontrolle ist im professionellen Umfeld fahrlässig und kann berufsrechtliche Konsequenzen nach sich ziehen. Die DSGVO verbietet in Artikel 22 Absatz 1 Entscheidungen, die „ausschließlich auf einer automatisierten Verarbeitung“ beruhen und Rechtsfolgen für die betroffene Person haben oder diese „erheblich beeinträchtigt“. Mit Artikel 4 der EU-KI-Verordnung ist die Sicherstellung von KI-Kompetenz für Mitarbeitende zudem zur gesetzlichen Verpflichtung geworden. Unternehmen müssen proaktiv Prozesse definieren, die eine menschliche Aufsicht (Human-in-the-Loop) gewährleisten und klare Richtlinien für den Umgang mit personenbezogenen Daten etablieren. Die Gefahr von „Schatten-KI“, bei der Mitarbeitende Tools ohne offizielle Freigabe nutzen, stellt ein massives Compliance-Risiko dar, das nur durch Schulung und klare Governance-Strukturen beherrscht werden kann.
Fazit
Die Erkenntnisse aus dem BSI-Podcast bestätigen die Tendenz der aktuellen Rechtsprechung: KI ist ein mächtiges Hilfsmittel, aber kein funktionales Substitut für menschliche Expertise und Haftung. Unternehmen, die die Chancen der Digitalisierung nutzen wollen, müssen gleichzeitig in ihre rechtliche Absicherung investieren. Wir unterstützen Sie dabei, Ihr Unternehmen „AI-ready“ zu machen und die Anforderungen der KI-Verordnung und DSGVO rechtssicher umzusetzen. Profitieren Sie von unserer Expertise durch eine maßgeschneiderte KI-Beratung, die Bestellung eines externen KI-Beauftragten oder gezielte Schulungen zur KI-Kompetenz für Ihre Teams. Nehmen Sie jetzt Kontakt auf, um Ihre KI-Strategie auf ein rechtlich sicheres Fundament zu stellen.
KI-Compliance aus einer Hand
Künstliche Intelligenz rechtssicher nutzen & entwickeln
- KINAST KI-Beratung
- KINAST externer KI-Beauftragter
- KINAST KI-Kompetenz-Schulungen









