Kategorie: Privacy by Design

Braucht es eine Zweckbindung für KI-Modelle und Trainingsdaten?

12. Juni 2025

Braucht es eine Zweckbindung für KI-Modelle und Trainingsdaten?Mit der zunehmenden Verbreitung mächtiger KI-Modelle wächst auch das Risiko ihrer unkontrollierten und zweckentfremdeten Nutzung. Die geltenden Regelwerke wie DSGVO und EU-KI-Verordnung greifen hier bislang zu kurz. Einen Vorschlag zur Schließung dieser Regulierungslücke legen Rainer Mühlhoff (Universität Osnabrück) und Hannah Ruschemeier (FernUniversität in Hagen) vor. In ihrer gemeinsamen Arbeit – veröffentlicht im International Journal of Law and Information Technology und vorgestellt unter purposelimitation.ai – plädieren sie für eine modellbezogene Zweckbindung, die über den klassischen Datenschutz hinausgeht und KI-Systeme selbst als Regulierungsobjekte versteht. (mehr …)

Digitalgesetzgebung made in EU – komplex, widersprüchlich, unübersichtlich?

10. Juni 2025

Digitalgesetzgebung made in EU – komplex, widersprüchlich, unübersichtlich?Die Digitalisierung schreitet rasant voran und damit auch die Bemühungen der Europäischen Union, einen umfassenden Rechtsrahmen für die digitale Wirtschaft zu schaffen. Einzelne Rechtsakte wie die DSGVO, der KI-VO oder der Data Act stellen wichtige Meilensteine dar. Doch die Vielzahl und Komplexität der EU-Digitalgesetzgebung führt zunehmend zu Herausforderungen in der praktischen Anwendung. Unternehmen stehen vor der Aufgabe, eine Vielzahl von Vorschriften gleichzeitig zu verstehen und einzuhalten, was oft mit Rechtsunsicherheit und erheblichem Verwaltungsaufwand verbunden ist. Das Bitkom-Papier “Digitalgesetzgebung der EU: Konfliktzonen und Wege zur Kohärenz” beleuchtet diese zentralen Herausforderungen und zeigt konkrete Konfliktlinien und systemische Spannungsfelder auf und wie diesen begegnet werden könnte. (mehr …)

Verbraucherschutzminister für mehr Datenschutz

3. Juni 2025

Der Umgang mit digitalen Angeboten ist für viele längst Alltag. Doch nicht selten geraten Nutzer dabei in manipulative Prozesse, ohne es zu merken. Die Konferenz der Verbraucherschutzminister der Länder hat sich auf ihrer 21. Sitzung in Berlin am 23.05.2025 klar für mehr Datenschutz positioniert. Dark Patterns und personalisierte Werbung im Netz seien ein strukturelles Problem, das dringend politisches und regulatorisches Handeln erfordere. (mehr …)

KI-Sicherheit: Singapore Consensus fordert mehr Forschung zur Kontrolle

26. Mai 2025

KI-Sicherheit: Singapore Consensus fordert mehr Forschung zur KontrolleMit der rasanten Entwicklung von Künstlicher Intelligenz, insbesondere allgemein einsetzbaren Systemen (General Purpose AI, GPAI), wächst zugleich der Druck, Sicherheits- und Kontrollfragen konsequent mitzudenken. Das enorme Potenzial solcher Systeme für Wirtschaft, Wissenschaft und Gesellschaft geht mit der Verantwortung einher, ihre Risiken strukturiert zu erfassen und systematisch zu adressieren.

Der „Singapore Consensus on Global AI Safety Research Priorities“ liefert hierfür eine zentrale Grundlage. Er gibt Einblick in jene technischen Forschungsbereiche, die künftig im Zentrum jeder sicherheitsbewussten KI-Strategie stehen müssen. Für Unternehmen, die KI entwickeln oder einsetzen, lassen sich daraus konkrete Handlungsansätze ableiten, die wir im Folgenden beleuchten. (mehr …)

CNIL zeigt Best Practices für KI in Behörden

15. Mai 2025

CNIL zeigt Best Practices für KI in BehördenDie französische Datenschutzbehörde CNIL (Commission Nationale de l’Informatique et des Libertés) hat kürzlich die Ergebnisse und Empfehlungen aus ihrer dritten “bac à sable”-Initiative (Sandbox) veröffentlicht. Drei Pilotprojekte zur Nutzung von künstlicher Intelligenz (KI) wurden begleitet. Im Fokus standen datenschutzrelevante Herausforderungen wie menschliche Kontrolle bei KI-gestützten Entscheidungen, Datenminimierung bei generativer KI und der Umgang mit neuartigen Sensoren zur Ereigniserkennung. Die Erkenntnisse bieten eine praxisnahe Orientierung für eine rechtskonforme und vertrauenswürdige KI-Implementierung im öffentlichen Dienst. (mehr …)

Cybersicherheit: KI-Pakethalluzinationen als neue Gefahr

30. April 2025

Cybersicherheit: KI-Pakethalluzinationen als neue GefahrDie Landschaft der Cybersicherheit wird durch Künstliche Intelligenz (KI) grundlegend verändert. Nun zeigt eine umfassende neue Studie von Forschern der University of Texas at San Antonio (UTSA) und Kooperationspartnern, dass die fortschreitende Integration von KI in die Softwareentwicklung eine weitere spezifische und ernstzunehmende Sicherheitslücke schafft: Die Pakethalluzination. (mehr …)

KI & DSGVO: Betroffenenrechte und Informationspflichten richtig umsetzen

3. April 2025

KI & DSGVO: Betroffenenrechte und Informationspflichten richtig umsetzenDie französische Datenschutzbehörde CNIL hat neue Empfehlungen zum datenschutzgerechten Umgang mit künstlicher Intelligenz (KI) vorgelegt. Sie zielen darauf ab, Wege aufzuzeigen, wie die Betroffenenrechte und Informationspflichten  im Einklang mit der DSGVO gewahrt werden können, ohne die Innovationsfähigkeit von Unternehmen einzuschränken. Die CNIL versteht die Datenschutz-Grundverordnung (DSGVO) dabei ausdrücklich nicht als Innovationshindernis, sondern als Rahmen für verantwortungsvolle Technologieentwicklung. (mehr …)

Niederlande: Praxishilfe für AI Impact Assessment (AIIA)

20. März 2025

FragebogenMit der wachsenden Verbreitung von Künstlicher Intelligenz (KI) stehen Unternehmen und Behörden vor der Herausforderung, deren rechtliche und ethische Auswirkungen angemessen zu bewerten. Hier setzt das AI Impact Assessment (AIIA) Version 2.0 an – ein praxisorientiertes Instrument, das im Dezember 2024 vom niederländischen Ministerium für Infrastruktur und Wasserwirtschaft veröffentlicht wurde. Es soll als praktisches Werkzeug für Organisationen und Unternehmen dienen, um die ethischen, rechtlichen und technischen Aspekte ihrer KI-Projekte systematisch zu prüfen und Transparenz in ihren Entscheidungsprozessen zu schaffen. (mehr …)

DSGVO & KI-Chatbots: Was tun mit aufgedrängten personenbezogenen Daten?

19. März 2025

Chatfenster von ChatGPT mit Warnung vor aufgedrängten DatenDer Einsatz generativer KI-Systeme, wie Chatbots im Kundenservice, bringt nicht nur Effizienzgewinne, sondern auch neue datenschutzrechtliche Herausforderungen mit sich. Besonders kritisch sind sogenannte „aufgedrängte Daten“ – personenbezogene Informationen, die Nutzer ungefragt eingeben und die der KI-Betreiber eigentlich nicht erfassen will. Da es technisch kaum möglich ist, solche Eingaben vollständig zu verhindern, stellt sich die Frage: Welche DSGVO-Pflichten treffen Unternehmen in diesem Fall? Dieser Beitrag beleuchtet, wann eine Verarbeitung vorliegt, und welche Maßnahmen helfen, um datenschutzkonform mit aufgedrängten Daten umzugehen. (mehr …)

EDSA & KI: Bias erkennen und Betroffenenrechte umsetzen

7. März 2025

EDSA und KI - Bias erkennen und Betroffenenrechte umsetzenKünstliche Intelligenz (KI) nimmt eine zunehmend zentrale Rolle in der Verarbeitung personenbezogener Daten ein und wirft zugleich erhebliche datenschutzrechtliche Fragen auf. Besonders kritisch sind dabei die potenziellen Diskriminierungsrisiken durch verzerrte Algorithmen sowie die effektive Durchsetzung der Rechte betroffener Personen. Der Europäische Datenschutzausschuss (EDSA) hat am 23. Januar 2025 die Ergebnisse des Projekts „KI: Komplexe Algorithmen und effektive Datenschutzaufsicht“ von Dr. Kris Shrishak veröffentlicht. Dieses Projekt wurde im Rahmen des Programms “Support Pool of Experts” auf Ersuchen der Bundesdatenschutzbehörde (DSA) ins Leben gerufen und soll insbesondere Datenschutzbehörden helfen Voreingenommenheit und Umsetzung von Betroffenenrechten im KI-Kontext zu verstehen und zu bewerten.

(mehr …)

Pages:  1 2
1 2