Zukunft der KI: 6 Trends mit Datenschutzfolgen laut EDPS TechSonar 2025

12. Mai 2025

Zukunft der KI: 6 Trends mit Datenschutzfolgen laut EDPS TechSonar 2025Im TechSonar 2025 untersucht der Europäischen Datenschutzbeauftragten (EDPS) sechs aufkommende Technologietrends der Künstlichen Intelligenz (KI) auf deren potenzielle Auswirkungen auf die Rechte und Freiheiten von Individuen, insbesondere mit Blick auf den Datenschutz. Der Bericht benennt sechs technologische Entwicklungen, die das Verhältnis zwischen KI und Datenschutz in den kommenden Jahren maßgeblich prägen könnten: Zu den Trends gehören Retrieval-augmented Generation (RAG), On-Device AI, Machine Unlearning, Multimodale KI, Scalable Oversight und Neuro-symbolische KI.

Die sechs zentralen KI-Trends im Überblick

Angesichts der zunehmenden Verbreitung von KI-Systemen, die regelmäßig personenbezogene Daten verarbeiten, ist es für den Datenschutz unerlässlich, die Risiken und Chancen dieser Technologien zu verstehen. Der TechSonar 2025 dient der Aufklärung, Diskussion und Sensibilisierung, indem er sowohl die positiven Potenziale als auch die datenschutzrechtlichen Herausforderungen der sechs KI-Trends beleuchtet.

1. Retrieval-Augmented Generation (RAG)

Retrieval-Augmented Generation bezeichnet KI-Systeme, die externe Wissensquellen in ihre Textgenerierung einbeziehen. Statt ausschließlich auf zuvor gelernten Informationen zu basieren, ruft das System aktiv aktuelle oder relevante Informationen aus Datenbanken ab, um präzisere Antworten zu liefern. Einerseits kann RAG die Genauigkeit und Verlässlichkeit von KI-Systemen erhöhen und Halluzinationen reduzieren, was vor allem in sensiblen Anwendungsbereichen (z. B. Recht, Medizin) die Risiken für Betroffene senkt. Andererseits besteht die Gefahr, dass durch Abfragen personenbezogene Daten offengelegt werden – etwa wenn interne Datenbanken unzureichend abgesichert sind oder Daten aus Drittsystemen ohne ausreichende Kontrolle integriert werden. Besonders kritisch sieht der EDPS die Möglichkeit der indirekten Identifizierung über beschreibende Inhalte.

2. On-Device AI

On-Device AI beschreibt KI, die direkt auf Endgeräten (z. B. Laptops, Smartphones, Wearables) statt in der Cloud betrieben wird. Datenverarbeitung findet lokal statt, was Latenz und Abhängigkeit von zentralen Servern reduziert. Die lokale Verarbeitung kann Datenschutzprinzipien wie Datenminimierung und Speicherbegrenzung stärken, da weniger Daten an externe Server gesendet werden. Allerdings können auch hier Risiken entstehen: etwa durch unkontrollierte lokale Datensammlungen, fehlende Sicherheitsupdates oder eine mögliche spätere Übertragung der Daten an Dritte ohne explizite Einwilligung. Ein besonderes Augenmerk verdient die Profilbildung durch lokale Datenanalysen.

3. Multimodale KI

Multimodale KI-Systeme kombinieren unterschiedliche Datentypen – Text, Bild, Audio, Video – um ein umfassenderes Verständnis von Situationen oder Kontexten zu entwickeln. Dies eröffnet neue Anwendungsfelder, etwa bei der automatisierten Videoanalyse oder im Gesundheitswesen. Die Verknüpfung mehrerer Datenarten erhöht die Datenfülle und -komplexität, was die Einhaltung der Grundsätze der Datenminimierung und Zweckbindung erschwert. Zudem steigt das Risiko unzulässiger Datenverarbeitung, wenn besonders sensible Daten (z. B. emotionale Zustände, biometrische Merkmale) in die Analyse einfließen. Der EDPS warnt insbesondere vor multimodaler Emotionserkennung, die erhebliche Eingriffe in die Privatsphäre darstellen kann.

4. Machine Unlearning

Machine Unlearning ist ein Ansatz, mit dem KI-Systeme spezifische Daten „vergessen“ können – etwa nach Ausübung des Rechts auf Löschung nach Art. 17 DSGVO. Ziel ist es, den Einfluss bestimmter Daten rückwirkend aus dem Modell zu entfernen. Dieses Konzept unterstützt direkt die Rechte betroffener Personen. Dennoch sind technische Hürden erheblich. Das vollständige Entfernen aller Effekte einzelner Datenpunkte ist komplex, oft nur durch aufwändiges Retraining möglich. Zudem kann es zu Leistungseinbußen oder neuen Bias führen. Der Nachweis der tatsächlichen Löschung bleibt eine der größten Herausforderungen.

5. Scalable Oversight

Scalable Oversight umfasst Methoden, die eine skalierbare Aufsicht über KI-Modelle ermöglichen sollen – etwa durch automatisiertes Feedback (z. B. Reinforcement Learning mit KI-Feedback) anstelle von ausschließlich menschlicher Kontrolle. Während diese Ansätze helfen könnten, Systeme besser an ethische und rechtliche Normen auszurichten, bergen sie das Risiko der Selbstverstärkung bestehender Bias. Zudem ersetzt skalierbare Aufsicht nicht die Notwendigkeit menschlicher Verantwortung, gerade in daten- und entscheidungsintensiven Bereichen.

6. Neuro-symbolic AI

Neuro-symbolische KI verbindet neuronale Netze (insbesondere Deep Learning) mit symbolischen, regelbasierten Ansätzen. Dadurch sollen sowohl Mustererkennung als auch Logik in einem System vereint werden. Die Einbindung symbolischer Elemente kann zu mehr Transparenz und Erklärbarkeit führen – ein zentraler Vorteil aus Sicht der Betroffenenrechte. Gleichzeitig kann durch symbolische Wissensintegration die Menge an notwendigen Trainingsdaten (und damit auch personenbezogenen Daten) reduziert werden. Dennoch bleibt die Frage, wie sich die komplexe Interaktion beider Systeme auf die Nachvollziehbarkeit und Haftung auswirkt.

Fazit

Die Entwicklungen im Bereich KI schreiten rasant voran. Umso wichtiger ist es, dass der Datenschutz Schritt hält – mit klarem Blick auf die Chancen, aber auch die Risiken für die Rechte und Freiheiten der Betroffenen. Der TechSonar 2025 liefert hierfür wertvolle Impulse, die Datenschutzbeauftragte und Unternehmen jetzt aktiv aufgreifen sollten. Datenschutzbeauftragte und Unternehmen sollten daher frühzeitig Datenschutzfolgenabschätzungen (DPIA) durchführen, technische und organisatorische Schutzmaßnahmen implementieren, Transparenz und Erklärbarkeit fördern, klare Zuständigkeiten und interne Richtlinien definieren, und die Kompetenz der Mitarbeitenden durch gezielte Schulungen stärken.

Nur wer diese Punkte systematisch angeht, kann die Chancen von KI nutzen, ohne die Rechte von Betroffenen und Bußgelder zu gefährden. Die KINAST Rechtsanwälte unterstützen Sie dabei mit Expertise und praxisnahen Lösungen – von der Strategie bis zur Umsetzung.