LfD Niedersachsen: Vertrauenswürdige KI durch Datenschutz
Die rasante Entwicklung Künstlicher Intelligenz (KI) stellt Unternehmen, Wissenschaft und Datenschutzbehörden vor verschiedene Herausforderungen. Der Landesbeauftragte für den Datenschutz (LfD) Niedersachsen, Dennis Lehmkemper, hat in einer Pressemitteilung vom 12.12.2024 die Ergebnisse eines KI-Expertenkreises, inklusive zentraler Problemfelder und Lösungsansätze zur datenschutzkonformen Gestaltung von KI-Systemen, erarbeitet. Die Erkenntnisse sollen nicht nur der Datenschutzaufsicht, sondern auch dem Niedersächsischen Landtag und der Öffentlichkeit neue Impulse liefern.
KI-Expertenkreis
Die Bedeutung Künstlicher Intelligenz für Wirtschaft und Gesellschaft wächst unaufhaltsam. KI-Systeme durchdringen immer mehr Lebensbereiche, von automatisierten Entscheidungsprozessen bis hin zu generativen Anwendungen, die Texte oder Bilder erzeugen können. Doch mit dieser Entwicklung gehen erhebliche datenschutzrechtliche Herausforderungen einher. Der LfD Niedersachsen hat sich diesem Themenkomplex in einer dreiteiligen Gesprächsreihe mit Experten aus Forschung, Wirtschaft, Verwaltung und Gesellschaft gewidmet. Das letzte Gespräch fand am 11.12.2024 statt.
Datenschutz als Grundlage für vertrauenswürdige KI-Systeme
Ein zentraler Punkt der Diskussion war die Notwendigkeit, Datenschutz von Beginn an in die Entwicklung von KI-Systemen zu integrieren. So könne von Anfang an bei den Bürgern „Vertrauen und Akzeptanz“ geschaffen werden. Zudem ergebe sich hierdurch mehr Rechtssicherheit für die Betreiber solcher Systeme.
Insbesondere müsse hierfür auch schon die Rechtmäßigkeit des KI-Trainings gewährleistet sein. In diesem Zusammenhang arbeitete die Gruppe heraus, dass viele Anbieter die technischen Möglichkeiten, beispielsweise zur Anonymisierung von Trainingsdaten oder zur Filterung fehlerhafter Outputs, unzureichend ausschöpfen. Bei voller Anwendung des aktuellen Stands der Technik könne schon hier ein höheres Datenschutzniveau erreicht werden.
Wahrung des Grundsatzes der Richtigkeit
Laut der Pressemitteilung des LfD Niedersachsen sei zudem der Grundsatz der Richtigkeit von Ergebnissen mit Personenbezug thematisiert worden. Dieser verlangt, dass personenbezogene Daten korrekt und aktuell seien und bei Fehlern umgehend berichtigt werden müssen. Für KI-Systeme stelle dies eine besondere Herausforderung dar, da deren Ergebnisse „weder vorhersagbar sind noch eine gezielte Fehlerkorrektur im System möglich ist“. Im Mai dieses Jahres hatte die Bürgerrechtsorganisation noyb deshalb schon eine Beschwerde gegen OpenAI eingereicht. Hier forderte der LfD Niedersachsen, dass Anbieter über bestehende Filtertechniken hinausgehen, neue, systeminterne Korrekturmechanismen implementieren.
Fazit
Die Ergebnisse des Expertenkreises verdeutlichen, dass eine datenschutzkonforme Entwicklung von KI-Systemen nicht rechtlich notwendig, sondern auch möglich und aus unternehmerischer Sicht vorteilhaft ist. Unternehmen, die Datenschutzprinzipien wie Privacy by Design frühzeitig implementieren, profitieren häufig von einer gesteigerten Akzeptanz und mehr Rechtssicherheit.