Die BaFin hat im Dezember 2025 eine Orientierungshilfe zu IKT-Risiken beim Einsatz von Künstlicher Intelligenz veröffentlicht. Dieses Dokument richtet sich primär an beaufsichtigte Finanz- und Versicherungsunternehmen. Es ordnet KI-Systeme konsequent in den bestehenden regulatorischen Rahmen des Digital Operational Resilience Act (DORA) ein. Auch wenn die Orientierungshilfe ausdrücklich keine neuen rechtlichen Pflichten begründet, bietet sie eine essenzielle Basis für die praktische Umsetzung des IKT-Risikomanagements in einer zunehmend durch KI geprägten Unternehmenslandschaft.
Strategische Einbettung in das IKT-Risikomanagement
Ein KI-System wird nach der BaFin als maschinengestütztes System definiert, das mit unterschiedlichem Grad an Autonomie agiert und aus Eingaben Ergebnisse wie Vorhersagen oder Entscheidungen ableitet. Die BaFin stellt klar, dass diese Systeme als Unterfall von Netzwerk- und Informationssystemen (IKT) direkt in den Anwendungsbereich von DORA fallen.
Als Kombination aus IKT-Assets wie Hardware, Quellcode und den spezifischen mathematischen Modellen werden KI-Systeme von der Aufsicht nicht als isolierte Technologien betrachtet, sondern als integraler Bestandteil der gesamten IKT-Landschaft eines Unternehmens. Aus diesem Grund müssen die Identifikation, Bewertung und Steuerung von KI-spezifischen Risiken nahtlos in die bestehenden Prozesse integriert werden. Dabei gilt stets ein risikobasierter Ansatz. Insbesondere Anwendungen in kritischen oder wichtigen Funktionen erfordern umfangreichere Sicherheits- und Kontrollmaßnahmen als weniger riskante Systeme.
Die BaFin erwartet, dass der Einsatz solcher Technologien nicht dem Zufall überlassen wird, sondern in einer KI-Strategie verankert ist. Diese Strategie sollte insbesondere dann detailliert ausgearbeitet sein, wenn die KI kritische oder wichtige Funktionen unterstützt, wie etwa die automatisierte Schadenregulierung oder die Betrugserkennung. Eine zentrale Rolle spielt hierbei der Aufbau von KI-Kompetenzen auf allen Ebenen. Verantwortliche müssen die Funktionsweise und die damit verbundenen Risiken tatsächlich bewerten können.
Der lebenszyklusorientierte Ansatz für KI-Resilienz
Zentral für die Aufsicht ist die Betrachtung des gesamten KI-Lebenszyklus. Dieser reicht von der Datenbeschaffung über die Modellentwicklung und den Betrieb bis hin zur endgültigen Stilllegung. In jeder dieser Phasen müssen Unternehmen spezifische technische Anforderungen erfüllen, um die Sicherheit und Resilienz zu gewährleisten und Schutz vor Manipulationen oder neuartigen KI-Angriffsszenarien zu bieten. Eine lückenlose Dokumentation von Modellversionen sowie robuste Testverfahren, wie etwa Adversarial Testing, sind hierbei entscheidende Instrumente zur Risikominimierung.
Nutzung von KI-Assistenten & Drittanbietern
Ein besonderes Augenmerk legt die BaFin auf KI-Assistenten, die häufig auf großen Sprachmodellen (LLMs) basieren und unstrukturierte Daten wie Texte, Bilder oder Programmiercode verarbeiten. Da solche Systeme zunehmend als Bestandteil von Standardsoftware eingesetzt werden, kommt der Einhaltung regulatorischer Anforderungen besondere Bedeutung zu.
Diese KI-Assistenten bergen spezifische IKT-Risiken, etwa durch Prompt Injection, Halluzinationen oder die Manipulation von Trainings- und Wissensdaten. Die Aufsicht differenziert dabei nach der zugrunde liegenden Infrastruktur. Während On-Premise-Lösungen eine weitgehende Kontrolle über die IKT-Assets ermöglichen, erhöhen externe Cloud-Modelle die Abhängigkeit von Drittanbietern und das Risiko ungewollter Datenabflüsse. Zur Risikominderung empfiehlt die BaFin unter anderem technische Schutzmechanismen zur Prüfung von Eingaben sowie die konsequente Umsetzung des Human-in-the-Loop-Prinzips bei sicherheitskritischen Anwendungen. Unternehmen sind angehalten, bei der Vertragsgestaltung auf klare Audit- und Zugriffsrechte sowie auf definierte Service Level Agreements zu achten, die auch Aspekte wie Latenz und Rechenkapazitäten abdecken. Zudem ist die Entwicklung tragfähiger Exit-Strategien unerlässlich, um eine Abhängigkeit von einzelnen Anbietern zu vermeiden und die Handlungsfähigkeit auch bei einem Anbieterwechsel sicherzustellen.
Schlussfolgerungen für Finanzunternehmen
Für die Unternehmenspraxis ergibt sich aus der Orientierungshilfe die Notwendigkeit, KI-Einsätze strategisch zu verankern und klare Verantwortlichkeiten zu definieren. Es empfiehlt sich die Erstellung einer spezifischen KI-Strategie, die vom Leitungsorgan genehmigt wird und die Einbindung relevanter Funktionen wie Compliance, Risikomanagement und Interne Revision sicherstellt. Ein weiterer wesentlicher Punkt ist der Aufbau von KI-Kompetenzen durch kontinuierliche Schulungsprogramme. Mitarbeitende und Führungskräfte benötigen ein ausreichendes Verständnis der technologischen Risiken. Schließlich müssen Daten konsequent nach Vertraulichkeitsstufen klassifiziert werden, um einen angemessenen Schutz vor unbefugten Zugriffen und Datenabflüssen zu garantieren.
Fazit
Die Orientierungshilfe der BaFin unterstreicht, dass eine erfolgreiche Nutzung von KI-Systemen untrennbar mit einer robusten Governance und einer tiefgreifenden Integration in bestehende Sicherheitsstrukturen verbunden ist. Unternehmen sollten die neuen Leitlinien nutzen, um ihre digitale Resilienz im Einklang mit DORA zu stärken. KI-Technologien ist kein Sonderfall, sondern sollte als ein fester Teil ihrer digitalen Strategie behandelt werden.
KI-Compliance aus einer Hand
Künstliche Intelligenz rechtssicher nutzen & entwickeln
- KINAST KI-Beratung
- KINAST externer KI-Beauftragter
- KINAST KI-Kompetenz-Schulungen









