Der Einsatz von Künstlicher Intelligenz (KI) in der Krankenversicherung nimmt zu. Ein aktueller Policy Brief des Stanford Institute for Human-Centered Artificial Intelligence (HAI) analysiert insbesondere KI-Systeme, die bei Vorabgenehmigungen („prior authorization“) und Leistungsentscheidungen eingesetzt werden.
Die zentrale Erkenntnis: KI kann Verwaltungsprozesse effizienter machen, birgt jedoch erhebliche Risiken, wenn Transparenz, Kontrolle und institutionelle Governance-Strukturen fehlen.
Leistungsentscheidungen auf Basis sensibler Gesundheitsdaten
KI-Systeme werden zunehmend eingesetzt, um zu bewerten, ob medizinische Leistungen genehmigt oder abgelehnt werden. Diese Verfahren betreffen regelmäßig Gesundheitsdaten und damit besondere Kategorien personenbezogener Daten im Sinne des Art. 9 DSGVO.
Der Stanford-Policy-Brief weist darauf hin, dass viele Systeme auf historischen Entscheidungsdaten beruhen. Werden bestehende Ablehnungsmuster oder strukturelle Verzerrungen nicht kritisch geprüft, können sie algorithmisch fortgeschrieben werden. KI skaliert in diesem Fall nicht nur Effizienz, sondern auch mögliche Fehlanreize.
Gerade im Gesundheitsbereich ist die datenschutzrechtliche Sensibilität hoch. Dass dies auch beim Training und Einsatz KI-gestützter Systeme gilt, zeigt sich besonders bei der Nutzung von Gesundheitsdaten für KI-Modelle. Die Verarbeitung von Gesundheitsdaten ist nur unter engen Voraussetzungen zulässig. Entsprechend steigen die Anforderungen an Dokumentation, Zweckbindung und Transparenz, wenn solche Daten für KI-gestützte Entscheidungsprozesse genutzt werden.
Automatisierte Entscheidungsprozesse und Transparenz
Der Stanford-Bericht kritisiert zudem, dass häufig unklar bleibt, in welchem Umfang KI-Systeme Entscheidungsprozesse tatsächlich prägen. Oft werden sie als Unterstützungssysteme dargestellt, obwohl sie faktisch maßgeblich Einfluss nehmen.
Diese Abgrenzung ist rechtlich relevant. Nach Art. 22 DSGVO dürfen Entscheidungen mit rechtlicher Wirkung oder erheblicher Beeinträchtigung grundsätzlich nicht ausschließlich automatisiert erfolgen. Leistungsablehnungen oder verzögerte medizinische Genehmigungen können eine solche erhebliche Wirkung darstellen.
Entscheidend ist dabei nicht die formale Beteiligung eines Menschen, sondern die tatsächliche inhaltliche Prüfung. Wenn algorithmische Empfehlungen routinemäßig bestätigt werden, besteht das Risiko, dass faktisch eine automatisierte Entscheidung vorliegt.
Transparenz- und Informationspflichten nach Art. 13 und Art. 15 DSGVO verlangen zudem, dass Betroffene nachvollziehen können, wie ihre Daten verarbeitet werden und welche Logiken einem System zugrunde liegen. Fehlende Nachvollziehbarkeit ist damit nicht nur ein Governance-Problem, sondern auch ein datenschutzrechtliches.
Governance und Evaluationspflichten
Ein zentrales Ergebnis des Stanford-Policy Briefs ist das Fehlen strukturierter Prüf- und Monitoring-Prozesse. Viele Versicherer messen weder systematisch die Genauigkeit ihrer Modelle noch prüfen sie fortlaufend mögliche Verzerrungen.
Solche Governance-Lücken sind auch im europäischen Kontext problematisch. Die Rechenschaftspflicht nach Art. 5 Abs. 2 DSGVO verlangt, dass Verantwortliche die Einhaltung der Datenschutzgrundsätze nachweisen können. Bei risikobehafteten Verarbeitungstätigkeiten, insbesondere im Umgang mit sensiblen Gesundheitsdaten, ist regelmäßig zu prüfen, ob eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO erforderlich ist.
KI-Compliance erschöpft sich daher nicht in der technischen Implementierung eines Systems. Erforderlich sind klare Verantwortlichkeiten, dokumentierte Prüfprozesse und eine kontinuierliche Überwachung der tatsächlichen Auswirkungen auf Betroffene.
Fazit
Der Stanford-Policy-Brief zeigt, dass KI in der Krankenversicherung Effizienzpotenziale bietet, zugleich jedoch strukturelle Risiken birgt.
Fehlende Transparenz, unzureichende Evaluationsmechanismen und mangelhafte Governance können dazu führen, dass bestehende Ungleichgewichte verstärkt werden.
Für Unternehmen bedeutet dies: Wer KI in leistungsrelevanten Entscheidungsprozessen einsetzt, muss neben technischer Leistungsfähigkeit auch belastbare Compliance-Strukturen etablieren, insbesondere beim Umgang mit sensiblen Gesundheitsdaten und bei potenziell automatisierten Entscheidungen.
KI-Compliance aus einer Hand
Künstliche Intelligenz rechtssicher nutzen & entwickeln
- KINAST KI-Beratung
- KINAST externer KI-Beauftragter
- KINAST KI-Kompetenz-Schulungen









