Artikel 5 KI-VO: Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen

2. April 2025

Artikel 5 KI-VO: Emotionserkennung am Arbeitsplatz und in BildungseinrichtungenDie niederländische Datenschutzbehörde Autoriteit Persoonsgegevens (AP) hat sich im Rahmen eines Konsultationsverfahrens intensiv mit der Auslegung des sechsten Verbots gemäß Artikel 5 der KI-Verordnung (KI-VO) der EU befasst. Dieses Verbot betrifft den Einsatz von KI-Systemen zur Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen (Art. 5 Abs. 1 lit. f KI-VO). Die nun veröffentlichten Ergebnisse eines umfassenden “Call for Input” liefern wertvolle Einblicke in die regulatorische Debatte.

Emotionserkennungssysteme im Fokus

Die KI-VO definiert ein „Emotionserkennungssystem“ als ein KI-System, das dem Zweck dient, Emotionen oder Absichten natürlicher Personen auf Grundlage ihrer biometrischen Daten zu erkennen oder daraus abzuleiten (Art. 3 Nr. 39 KI-VO). Gemäß Art. 5 Abs. 1 lit. f KI-VO ist das Inverkehrbringen, die Inbetriebnahme oder die Nutzung solcher Systeme in Arbeitsumgebungen und Bildungseinrichtungen grundsätzlich verboten. Ausnahmen bestehen lediglich für medizinische oder sicherheitsrelevante Zwecke.

Im Zeitraum vom 31. Oktober bis 17. Dezember 2024 führte die AP einen öffentlichen Konsultationsprozess durch. Ziel war es, Rückmeldungen von Stakeholdern einzuholen, um das Verbot in seiner praktischen Anwendung besser zu verstehen und auszulegen. Insgesamt wurden 24 Stellungnahmen ausgewertet.

Technologischer Aufwind und neue Anwendungskontexte

Den Rückmeldungen zufolge stellte die AP fest, dass Systeme zur Erkennung von Emotionen und Absichten – etwa durch die Analyse von Gesichtsausdrücken oder multimodaler Daten – zunehmend Verbreitung finden. Die eingereichten Beiträge verdeutlichen, dass der Einsatz solcher Technologien über einfache Sentimentanalysen (auf Textbasis) hinausgeht und zunehmend in komplexe, multifunktionale KI-Systeme integriert wird. Multimodale Systeme ermöglichen es, Emotionen aus verschiedenen Datentypen abzuleiten. Die Emotionserkennung kann dabei auch als „Nebenfunktion“ in Anwendungen eingebettet sein. Genannte Beispiele reichen von sozialen Robotern in der Pflege über Systeme zur Erkennung von Müdigkeit oder Ablenkung im Fahrzeug bis hin zu KI-gestützter Belastungsdiagnostik im Sport.

Abgrenzungsprobleme bei Emotionen, Absichten und Einstellungen

Die AP identifiziert erheblichen Klärungsbedarf bei der Begriffsbestimmung zentraler Konzepte der KI-VO. Insbesondere die Abgrenzung zwischen Emotionen, physischen Zuständen und beobachtbarem Verhalten wirft Fragen auf. Auch der Begriff der „Absicht“ (intention) sei unklar und müsse im Kontext der Verbotsregelung präziser interpretiert werden.

Die AP verweist auf die Leitlinien der Europäischen Kommission zu Verbotenen KI-Systemen, wonach der Begriff „Emotionen“ weit auszulegen sei und auch Absichten sowie Einstellungen (attitude) umfasse. Eine Umgehung des Verbots durch alternative Begrifflichkeiten sei unzulässig – so etwa bei der Feststellung, dass eine Person eine „wütende Haltung“ einnimmt.

Biometrische Daten: Definitionsunterschiede zur DSGVO

Während Art. 4 Nr. 14 DSGVO biometrische Daten mit der eindeutigen Identifizierung einer natürlichen Person verknüpft, scheint die Definition in der KI-VO weiter gefasst. Eine Emotionserkennung kann demnach auch dann unter das Verbot fallen, wenn keine eindeutige Identifikation erfolgt – etwa bei der Verarbeitung physiologischer Merkmale.

Die AP betont, dass die Definition biometrischer Daten der KI-VO im Einklang mit der DSGVO auszulegen ist. Da die KI-VO die DSGVO ergänzt, gelten auch im Kontext der Emotionserkennung auf Grundlage personenbezogener Daten (z. B. Videoaufzeichnungen) weiterhin die datenschutzrechtlichen Anforderungen.

Für Unsicherheit sorgt zudem die Tatsache, dass Art. 5 KI-VO das Verbot nicht explizit an biometrische Daten knüpft, während die Definition des Emotionserkennungssystems (Art. 3 Nr. 39 KI-VO) genau darauf abstellt.

Anwendungsbereich: Unklare Definitionen von „Arbeitsplatz“ und „Bildungseinrichtung“

Die AP sieht auch bei der Auslegung des räumlich-sachlichen Anwendungsbereichs Nachbesserungsbedarf. Unklar bleibt insbesondere, wie hybride Arbeitsformen, Remote Work, digitale Bildungskontexte oder Einrichtungen mit Mischcharakter – etwa Justizvollzugsanstalten oder Gesundheitsinstitutionen – zu bewerten sind. Die Kommissionsleitlinien bieten zwar erste Orientierung, lassen in der Praxis jedoch zahlreiche Fragen offen.

Ausnahmen: Strenge Anforderungen und keine Einwilligung als Ausweg

Ein weiterer Fokus liegt auf den Ausnahmetatbeständen für medizinische und sicherheitsrelevante Zwecke. Die AP stellt klar, dass diese eng auszulegen sind. Eine Einwilligung – etwa durch Arbeitnehmer oder Schüler – stellt keine zulässige Ausnahme dar. Ungeklärt bleibt, ob etwa Maßnahmen zur Überwachung des psychischen Wohlbefindens durch Arbeitgeber als „medizinisch“ im Sinne der KI-VO einzuordnen sind.

Ausblick: Rolle der AP in der Marktüberwachung

Die AP bereitet sich aktiv auf ihre Rolle bei der Durchsetzung der KI-VO vor. In Zusammenarbeit mit anderen nationalen und europäischen Behörden – etwa im Rahmen der niederländischen Kooperationsplattform für digitale Aufsicht (SDT) – sollen konkrete Leitlinien und Vollzugsstrategien entwickelt werden. Die AP empfiehlt zudem, sie als zuständige Marktüberwachungsbehörde für die Verbote gemäß Art. 5 KI-VO zu benennen.

Fazit

Die Stellungnahme der AP unterstreicht die Dynamik der technologischen Entwicklung im Bereich der Emotionserkennung – und die damit einhergehenden regulatorischen Herausforderungen. Die Vielzahl an offenen Fragen hinsichtlich Begrifflichkeiten, Anwendungsbereichen und Ausnahmen zeigt, dass eine präzise und praxisorientierte Auslegung der KI-VO dringend erforderlich ist.

Zwar bieten die Leitlinien der Europäischen Kommission erste Anhaltspunkte, in konkreten Anwendungsszenarien bleibt jedoch häufig Unklarheit. Das Verbot der Emotionserkennung in sensiblen Bereichen wie Arbeitswelt und Bildungswesen stellt ein zentrales Instrument zum Schutz der Grundrechte dar – und erfordert daher besondere Sorgfalt bei der rechtlichen Umsetzung. Wie Gesichtserkennungstechnologien im privaten und öffentlichen Bereich datenschutzkonform einsetzen kann, hat die Berlin Group letztes Jahr in einem Arbeitspapier behandelt.