Kategorie: Datenschutzfolgenabschätzung

EDSA: Leitlinien & Schulungsmaterialien des SPE für sichere KI-Systeme und LLMs

7. Juli 2025

EDSA: Leitlinien & Schulungsmaterialien des SPE für sichere KI-Systeme und LLMsDie sichere und datenschutzkonforme Nutzung von Künstlicher Intelligenz (KI) – insbesondere Großer Sprachmodelle (LLMs) – erfordert umfassende KI-Kompetenz auf allen Ebenen eines Unternehmens. Der Europäische Datenschutzausschuss (EDSA) unterstützt Organisationen dabei mit seinem Support Pool of Experts (SPE), der praxisorientierte Leitlinien und Schulungsmaterialien zu KI-Systemen bereitstellt. Ziel ist es, alle Beteiligten – von der Entwicklung bis zur Geschäftsführung – in die Lage zu versetzen, die Risiken von KI-Systemen zu verstehen, zu bewerten und wirksam zu steuern. (mehr …)

LDI NRW: KI-Emotionserkennung hat im Callcenter nichts zu suchen

27. Juni 2025

Tätigkeitsbericht LDI NRW: KI-Emotionserkennung hat im Callcenter nichts zu suchenMit ihrem 30. Tätigkeitsbericht legt die Landesbeauftragte für Datenschutz und Informationsfreiheit in Nordrhein-Westfalen (LDI NRW), Bettina Gayk, einen besonderen Fokus auf die Risiken beim Einsatz von Künstlicher Intelligenz (KI). KI-Systeme sind keine Zukunftsmusik mehr, sondern bereits Teil vieler unternehmerischer Prozesse. Umso wichtiger ist ein verantwortungsvoller Umgang, insbesondere wenn es um besonders sensible Daten geht – wie etwa in einem Fall der LDI NRW bei KI-Emotionserkennung im Callcenter. (mehr …)

Datenschutz und KI: Der Bitkom-Praxisleitfaden

23. Juni 2025

Datenschutz und KI: Der Bitkom-PraxisleitfadenDie Integration von Künstlicher Intelligenz (KI) in Unternehmensprozesse birgt enorme Chancen für Innovation und Effizienz. Gleichzeitig stellt sie Unternehmen vor komplexe Herausforderungen im Bereich des Datenschutzes. Um hier Klarheit und Sicherheit zu schaffen, hat der Digitalverband Bitkom einen umfassenden Praxisleitfaden „Künstliche Intelligenz & Datenschutz“ veröffentlicht. (mehr …)

OpenAI Deep Research: Wie sicher ist der Zugriff auf Unternehmensdaten?

26. Mai 2025

OpenAI Deep Research: Wie sicher ist der Zugriff auf Unternehmensdaten?Anfang Mai hat OpenAI den sogenannten Deep Research Connector in ChatGPT eingeführt. Damit eröffnet OpenAI neue Möglichkeiten für die Integration von ChatGPT in unternehmensinterne Prozesse. Die Funktion erlaubt KI-gestützte Analysen auf Daten aus Anwendungen wie SharePoint, OneDrive, GitHub oder Dropbox – direkt innerhalb vertrauter Arbeitsumgebungen. ChatGPT wird damit zunehmend zur intelligenten Schnittstelle für internes Wissen.

So groß das Potenzial für Effizienzgewinne und fundiertere Entscheidungen ist, so dringend stellen sich Fragen zu Datenschutz, Datensicherheit und Compliance. Dieser Beitrag beleuchtet die zentralen rechtlichen, technischen und organisatorischen Aspekte beim Einsatz von Deep Research. (mehr …)

Zukunft der KI: 6 Trends mit Datenschutzfolgen laut EDPS TechSonar 2025

12. Mai 2025

Zukunft der KI: 6 Trends mit Datenschutzfolgen laut EDPS TechSonar 2025Im TechSonar 2025 untersucht der Europäischen Datenschutzbeauftragten (EDPS) sechs aufkommende Technologietrends der Künstlichen Intelligenz (KI) auf deren potenzielle Auswirkungen auf die Rechte und Freiheiten von Individuen, insbesondere mit Blick auf den Datenschutz. Der Bericht benennt sechs technologische Entwicklungen, die das Verhältnis zwischen KI und Datenschutz in den kommenden Jahren maßgeblich prägen könnten: Zu den Trends gehören Retrieval-augmented Generation (RAG), On-Device AI, Machine Unlearning, Multimodale KI, Scalable Oversight und Neuro-symbolische KI. (mehr …)

EDPB zu Datenschutzrisiken und Risikominderung für LLMs

EDPB zu Datenschutzrisiken und -minderungsmaßnahmen für LLMsDer Europäische Datenschutzausschuss (EDPB) hat am 10. April 2025 einen Bericht veröffentlicht, der Datenschutzrisiken beim Einsatz von Large Language Models (LLMs) analysiert und konkrete Maßnahmen zur Risikominderung vorschlägt. Der Bericht richtet sich an Unternehmen, Datenschutzbeauftragte und KI-Entwickler, die LLMs einsetzen oder integrieren, und soll dabei helfen, regulatorische Vorgaben der DSGVO und der KI-Verordnung einzuhalten. (mehr …)

KI-Diagnostik: EMA-Zulassung stellt Datenschutz auf die Probe

17. April 2025

KI-Diagnostik: EMA-Zulassung stellt Datenschutz auf die ProbeDie Europäische Arzneimittel-Agentur (EMA) hat erstmals ein KI-gestütztes Diagnosetool für den medizinischen Bereich qualifiziert. Das System mit dem Namen AIM-NASH unterstützt Pathologen bei der Analyse von Leberbiopsien und der Einschätzung des Schweregrads von MASH (Metabolic dysfunction-associated steatohepatitis) in klinischen Studien. Dieser Schritt markiert einen Meilenstein für den Einsatz von Künstlicher Intelligenz in der medizinischen Diagnostik – ein Bereich, der in den kommenden Jahren durch Digitalisierung und datenbasierte Technologien grundlegend transformiert werden dürfte.

Mit den Chancen dieses Fortschritts gehen jedoch erhebliche datenschutzrechtliche und regulatorische Herausforderungen einher. Besonders im Fokus stehen dabei die Datenschutz-Grundverordnung (DSGVO) und die Verordnung der Europäischen Union über Künstliche Intelligenz (KI-VO). (mehr …)

VG Wiesbaden: Konsequenzen fehlender Datenschutzfolgenabschätzungen

5. März 2025

In einem Urteil vom 18.12.2024 (6 K 1563/21) hat sich das Verwaltungsgericht (VG) Wiesbaden mit den Konsequenzen fehlender oder fehlerhaft durchgeführten Datenschutzfolgenabschätzungen beschäftigt. In diesem Zusammenhang hat das Gericht festgestellt, dass zwar hierdurch Formvorschriften nicht eingehalten werden, dies allerdings nichts an der materiellen Rechtmäßigkeit einer Datenverarbeitung ändert. (mehr …)