Schlagwort: biometrische Gesichtserkennung
17. November 2022
Der Bundesbeauftragte für den Datenschutz und die Informationssicherheit (BfDI) rät Besucherinnen und Besuchern der Fußball-Weltmeisterschaft (WM) 2022 in Katar zur Verwendung eines separaten Mobiltelefons für die Reise. Hintergrund der Empfehlung ist, dass die Fußball-Fans die Apps „Hayya“ und „Ehteraz“ installieren müssen, welche der BfDI als datenschutztechnisch bedenklich einstuft.
Die WM-Apps Hayya und Ehteraz
„Hayya“ ist die offizielle WM-App, mit der die sogenannte „Hayya-Card“ verwaltet wird, die für Einreise und Zutritt zu den Fußballstadien sowie die Nutzung des öffentlichen Nahverkehrs erforderlich ist. „Ehteraz“ wird zur Corona-Kontaktverfolgung eingesetzt und muss von allen Reisenden ab 18 Jahren installiert werden. Allerdings wird „Ehteraz“ nur für den Besuch von Gesundheitseinrichtungen benötigt. Beide Apps können in den gängigen App-Stores heruntergeladen werden.
Ergebnisse der Analyse
Bei der ersten Analyse der Apps hat der BfDI festgestellt, dass „die Datenverarbeitungen beider Apps wahrscheinlich deutlich weiter gehen, als es die Beschreibungen der Datenschutzhinweise und Verarbeitungszwecke in den App-Stores angeben.“ Eine der Apps erhebe Daten zu Telefonaten, welche in Deutschland als sensible Telekommunikationsverbindungsdaten unter das Fernmeldegeheimnis fielen. Die andere App könne aktiv den Schlafmodus des Geräts verhindern. Zudem liege nahe, dass die Daten nicht nur lokal gespeichert, sondern auch an einen zentralen Server übermittelt würden. Aus diesen Gründen sollten Besucherinnen und Besucher der WM laut BfDI ein separates Gerät zur Installation der Apps verwenden, auf dem keine personenbezogenen Daten gespeichert seien, und nach Rückkehr das Betriebssystem und sämtliche Inhalte darauf vollständig löschen.
Bedenken anderer Datenschutzbehörden
Die Einschätzung des BfDI deckt sich mit der Warnung der französischen und der norwegischen Datenschutzbehörden CNIL und Datatilsynet. Auch diese empfehlen die Nutzung eines separaten Geräts für die Apps. Die norwegische Datenschutzbehörde Datatilsynet hält den umfangreichen Zugriff der Apps für alarmierend und gab Empfehlungen (auf Norwegisch) dahingehend ab, was Besucherinnen und Besucher tun können, die keinen Zugriff auf ein Zweitgerät haben oder ein solches nicht nutzen möchten. Demnach könnten die eigenen Daten vor Einreise gesichert und anschließend auf dem Mobiltelefon gelöscht werden, sodass es in Katar nur für die beiden Apps verwendet würde. Nach Rückkehr könnte das Gerät dann zurückgesetzt und die gesicherten Daten wiederhergestellt werden.
Nicht das einzige Datenschutzthema bei der WM in Katar
Die verpflichtende Installation dieser Apps ist nicht das einzige Problem, das sich bei der WM in Katar im Bereich des Datenschutzes stellt. Laut Auswärtigem Amt nutzen die Behörden in Katar „intensiv digitale Technologien.“ Es würden unter anderem flächendeckend Videokameras im öffentlichen Raum eingesetzt und bei jeder Ein- und Ausreise fände eine biometrische Erfassung mittels Gesichtsscanner und Bildabgleich statt.
10. November 2022
Unter Federführung von „Algorithm Watch“ haben insgesamt 24 zivilrechtliche Organisationen, darunter „Amnesty International“ und „Reporter ohne Grenzen“ einen Brief an die Bundesregierung veröffentlich. Inhalt des offenen Briefes ist die Forderung, dass sich die Regierung bei den Verhandlungen im europäischen Rat zur „Artificial Intelligence“-Verordnung für ein striktes Verbot der biometrischen Überwachung einsetzen solle.
Der Verordnungsentwurf zu künstlicher Intelligenz
Hintergrund der Artificial Intelligence Verordnung ist die Frage, wie die Europäische Union (EU) einen sicheren Rechtsrahmen für den Umgang mit künstlicher Intelligenz schaffen kann. Hiermit befasst sich die europäische Kommission bereits seit 2018. Im April 2021 hatte diese einen Verordnungsentwurf vorgelegt.
In ihrem offenen Brief stellten die unterzeichnenden Organisationen fest, dass nach Art. 5 Abs. 1 lit. d des Verordnungsentwurfes der Einsatz von biometrischer Überwachung grundsätzlich verboten sei. Allerdings sehe der Artikel eine Vielzahl an Ausnahmen vor, nach denen die Mitgliedstaaten Technologien zur Identifikation von Personen anhand ihrer biometrischer Daten in öffentlichen Räumen einsetzten können.
Kritik an der Verordnung
Die Möglichkeit sog. „biometrischer Echtzeit-Fernidentifizierungssysteme“ einsetzen zu können, kritisierten nun Algorithm Watch und die weiteren unterzeichnenden Organisationen in ihrem offenen Brief.
Dabei erinnerten die unterzeichnenden Organisationen an den Koalitionsvertrag der Bundesregierung. Laut Algorithm Watch und den weiteren Organisationen habe die Bundesregierung im Koalitionsvertrag beabsichtigt, dass „(…) biometrische Identifikation im öffentlichen Raum durch eine EU-weite Gesetzgebung ausgeschlossen werden muss.“
Diesbezüglich stellten die Organisationen fest, dass die Verordnung in ihrer derzeitigen Fassung zu einem möglichen Verbot der biometrischen Identifikation beitragen könne. Vor allem Art. 5 Abs. 1 lit. d des Verordnungsentwurfes interpretieren die Organisationen als ein sinnvolles Instrument für ein solches künftiges Verbot.
Jedoch weise der Verordnungsentwurf im Hinblick auf ein Verbot biometrischer Identifikation noch Lücken auf. Die Organisationen kritisierten, dass sich Art. 5 Abs. 1 lit. d des Verordnungsentwurfs nur auf „Echtzeit“ Systeme zur biometrischen Identifikation beziehe. Außerdem sei das Verbot zum Einsatz biometrischer Überwachung lediglich auf Strafverfolgungsbehörden beschränkt. Demnach sei es möglich, dass andere öffentliche oder private Stellen die Überwachungssysteme einsetzten. Überdies, so die Organisationen, weichen die Ausnahmen des Art. 5 des Verordnungsentwurfes das Verbot auf.
Zudem können Mitgliedstaaten sich auf die „nationale Sicherheit“ berufen, um den Einsatz künstlicher Intelligenz zu rechtfertigen. Folglich sei es möglich, dass aufgrund dieser Rechtfertigung Überwachungssysteme eingesetzt werden.
Fazit
Die Organisationen forderten in ihrem Brief, dass sich die Bundesregierung für ein Verbot biometrischer Überwachung in weiteren Verhandlungen auf europäischer Ebene einsetze. Es gehe darum, Grundrechtsverletzungen die biometrische Überwachung erzeugen könnten zu verhindern.
11. August 2022
In Teil 2 unseres Beitrages über biometrische Daten beschäftigen wir uns damit, wo biometrische Daten zum Einsatz kommen und was für ein Problem es mit Gesichtserkennungssoftwares gibt. Um ein grundsätzliches Verständnis für biometrische Daten zu erhalten, verweisen wir auf Teil 1 dieses Beitrages.
Wo & wann werden biometrische Daten verwendet?
Biometrische Daten sind im Alltag vielfältig zu finden. Teilweise werden biometrische Daten auf amtlichen Ausweisen gespeichert, so muss der deutsche Personalausweis z.B. ein biometrisches Lichtbild und seit letztem Jahr auch Fingerabdrücke enthalten.
Auch kann man seinen Fingerabdruck oder seine Gesichtsgeometrie in seinem Smartphone speichern und dies zur Entsperrung nutzen.
Wie funktionieren Gesichtserkennungssoftwares?
Es gibt unterschiedliche Arten der Gesichtserkennung, die sich aber im Wesentlichen alle ähnlich sind.
Dabei lokalisiert die Kamera ein Gesicht. Die Software liest sodann das Gesicht und berechnet seine charakteristischen Eigenschaften, also seine Geometrie. Dafür herangezogen werden vor allem solche Merkmale des Gesichts, die sich aufgrund der Mimik nicht ständig verändern, z.B. die oberen Kanten der Augenhöhlen, die Gebiete um die Wangenknochen und die Seitenpartien des Mundes. Diese Informationen werden in Form eines Merkmalsdatensatzes gespeichert. Dieser Merkmaldatensatz kann dann in Datenbanken abgeglichen werden, sodass mehrere Bilder von einer Person dieser alle zugeordnet werden können.
Eines der bekanntesten Unternehmen, das Gesichtserkennungssoftware nutzt ist Clearview AI. Das US-amerikanische Unternehmen sammelt öffentlich zugängliche Bilder von Menschen, z.B. in sozialen Netzwerken oder in Videos. Mittlerweile hat das Unternehmen eine Datenbank von 10 Milliarden Bildern. Kunden können ein Foto von einem Gesicht machen und hochladen. Dieses Foto wird dann mit den Datenbanken abgeglichen.
Wofür werden sie genutzt?
Gesichtserkennungssoftwares können vielfältig genutzt werden. So können sie aus Sicherheitsgründen eingesetzt werden oder um vermisste Personen zu identifizieren. Ein aktuelles Beispiel dafür ist, dass die Ukraine offenbar Clearview AI nutzte, um im Krieg gefallene Soldaten zu identifizieren. Auch Strafverfolgungsbehörden in den USA nutzen Clearview.
Welche Kritik begegnet ihnen?
In Europa begegnet Clearview AI enorme Kritik von Datenschutzbehörden, die Rekordstrafen verhängen. So haben allein dieses Jahr die italienische und die griechische Datenschutzbehörde jeweils ein Bußgeld von 20 Mio. Dollar gegen das Unternehmen verhängt. Außerdem haben u.a. die französische Datenschutzbehörde Clerview AI aufgefordert, die Daten ihrer Bürger nicht länger zu sammeln.
Die Befürchtung bei solchen Gesichtserkennungssoftwares ist, dass eine illegale Massenüberwachung entsteht. Auch findet so ein immenser Eingriff in der Privatsphäre der Betroffenen statt. Dabei ist das Missbrauchspotential groß, potenzielle Straftäter können ihre Opfer auskundschaften. Vor allem Straftaten im Bereich des Stalkings können so vereinfacht werden. Aber auch in autoritären Regimen können solche Softwares eingesetzt werden, um bspw. Regimekritiker auf Demonstrationen zu identifizieren.
Dem Erfassen von biometrischen Daten kann man im Alltag nicht aus dem Weg gehen. Es ist aber auf jeden Fall sinnvoll, vernünftig über biometrische Daten informiert zu sein, um sie bestmöglich schützen zu können.
5. August 2022
Die USA plant, ab dem Jahr 2027 ihre Visa-Bedingungen zu ändern. Sie möchte mit anderen Ländern eine „Partnerschaft zur Verbesserung des Grenzschutzes“ („Enhanced Border Security Partnership“, EBSP) abschließen. Im Rahmen dessen sollen u.a. biometrische Daten zwischen den Ländern ausgetauscht werden, um Einreisende identifizieren zu können. Dies ergibt sich aus der schriftlichen Anfrage eines Abgeordneten.
Ob es dazu kommt, gilt abzuwarten, denn die Verwendung biometrischer Daten ist sehr umstritten. Da der Begriff der „biometrischen Daten“ oft gar nicht richtig eingeordnet werden kann, werden wir in einem zweiteiligen Beitrag Fragen dazu beantworten.
In diesem ersten Teil möchten wir Ihnen ein grundsätzliches Verständnis für biometrische Daten vermitteln.
Was sind biometrische Daten?
Die europäische Datenschutzgrundverordnung (DSGVO) definiert biometrische Daten in Art. 4 Nr. 14 als: „mit speziellen technischen Verfahren gewonnene personenbezogene Daten zu den physischen, physiologischen oder verhaltenstypischen Merkmalen einer natürlichen Person, die die eindeutige Identifizierung dieser natürlichen Person ermöglichen oder bestätigen, wie Gesichtsbilder oder daktyloskopische Daten;“
Biometrische Daten sind also biologische bzw. körperliche Merkmale, die so eindeutig sind, dass eine Person durch diese identifiziert werden kann.
Beispiele für solche Daten sind u.a. Fingerabdrücke, Gesichtsgeometrie, das Muster der Iris, Stimmerkennung und die eigene DNA.
Welche Verwendung gibt es für biometrische Daten?
Biometrische Daten können zur Verifikation oder zur Identifikation einzelner Personen genutzt werden.
Verifikation / Authentifikation: dabei wird die Identität einer Person bestätigt, also geprüft, ob es sich bei einer Person um diejenige handelt, für die sie sich ausgibt. Ein Beispiel dafür ist das Entsperren des Smartphones über den Fingerabdruck-Sensor des Geräts, bei dem der Fingerabdruck, mit dem im Gerät gespeicherten abgeglichen wird.
Identifikation: dabei wird die Frage geklärt, um welche Person es sich handelt. Die errechneten Daten werden dabei mit im System gespeicherten Merkmalen abgeglichen. Stimmen Merkmale überein, kann die überprüfte Person als eine bestimmte Person identifiziert werden. Dieses Verfahren findet u.a. in der Kriminalistik und Strafverfolgung Anwendung.
Warum sind sie so schützenswert und welche Risiken gibt es?
Biometrische Daten sind von der DSGVO in Art. 9 als sensible Daten aufgeführt. Sensible Daten sind solche, bei deren Verarbeitung erhebliche Risiken für die Grundrechte und Grundfreiheiten der betroffenen Personen auftreten können. Aus diesem Grund dürfen solche Daten grundsätzlich nicht verarbeitet werden. In Art. 9 DSGVO sind jedoch Ausnahmen definiert, z.B. die ausdrückliche Einwilligung der betroffenen Person.
Sie sind sensibel, weil die Verarbeitung solcher personenbezogener Daten erheblich in die Privatsphäre der betroffenen Personen eingreift. So können z.B. bestimmte Daten Hinweise auf Erkrankungen geben (bei Diabeteserkrankungen kann die Erkrankung im Augenhintergrund erkennbar sein). Auch bleiben biometrische Daten ihrer Natur nach meist lebenslang bestehen. Sollte ein Passwort an Dritte geraten, kann es geändert werden. Bei biometrischen Daten ist dies nicht möglich, so können bspw. Fingerabdrücke und DNA nicht geändert werden.
Gleichzeitig können Messfehler nie ganz ausgeschlossen werden. Diese können z.B. bei altersbedingter Veränderung der körperlichen Merkmale oder Verletzungen und Krankheiten auftreten. Dann kann es zu Falschidentifikationen kommen.
Besonders gefährlich sind biometrische Daten, wenn sie an Dritte gelangen, die den betroffenen Personen schaden wollen, wie z.B. im vorigen Jahr in Afghanistan geschehen. Dort waren den Taliban nach deren Machtübernahme Geräte von Hilfsorganisationen in die Hände gefallen, auf denen biometrische Daten gespeichert waren.
Nächste Woche werden wir uns in Teil 2 intensiv mit der Frage beschäftigen, wo biometrische Daten zum Einsatz kommen und was für ein Problem es mit Gesichtserkennungssoftwares gibt.
6. August 2020
Bereits im Januar haben wir über das Unternehmen Clearview berichtet. Dessen Geschäftsmodell ist es, frei öffentlich zugängliche Fotos im Internet zu sammeln und in einer Datenbank zusammenzufassen. Dabei greift es unter anderem auf Fotos von Facebook, Instagram und YouTube zurück. Die dabei gesammelten Daten hat Clearview an Unternehmen und Behörden weiterverkauft. Nun hat ein weiteres Start-Up-Unternehmen dieses Geschäftsmodell aufgegriffen. Dafür hat das Unternehmen PimEyes eine Suchmaschine für Gesichtserkennung erstellt.
Im Gegensatz zu Clearview ist PimEyes für jeden zugänglich. PimEyes durchsucht massenhaft Gesichter im Internet nach individuellen Merkmalen und speichert deren biometrische Daten. Der Nutzer kann ein Foto hochladen, was mit gespeicherten Bildern abgeglichen wird. Die Datenbank soll mittlerweile 900 Millionen Gesichter umfassen.
Das Geschäftsmodell ist aus datenschutzrechtlicher Perspektive äußerst bedenklich. Zum einen haben die auf den Fotos gespeicherten Personen keine Einwilligung in die weitere Verarbeitung ihrer Fotos gegeben, als sie diese auf Social Media-Plattformen hochgeladen haben. Ebenso wenig sind sie von PimEyes diesbezüglich gefragt worden.
Des Weiteren ist es möglich, so an Informationen zu Personen gelangen, die man sonst nicht erfahren würde. Zum Beispiel ließe sich so feststellen, was für Freizeitinteressen die Person hat oder welche Veranstaltungen diese Person besucht hat. Daraus ließe sich ableiten, welche politischen Ansichten oder persönliche Neigungen diese Person hat.
Der Dienst kann in der Tat für Personen hilfreich sein, die nicht für die Öffentlichkeit bestimmte Fotos oder Videos von sich aufspüren möchten. Mit dem Dienst von PimEyes lassen sich die dazugehörigen Webseiten finden, so dass man gegen die Veröffentlichungen vorgehen kann. Auch lässt sich ein Alarm einstellen, der über neu hochgeladene Bilder und Videos informiert.
Nach massiver Kritik hat PimEyes seine Suchmaschine eingeschränkt. War es zuvor möglich, beliebige Fotos hochzuladen und mit der Datenbank abzugleichen, kann man aktuell nur ein Foto mit der eigenen Webcam am PC erstellen und mit im Internet kursierenden Aufnahmen vergleichen.
28. Januar 2020
Während die EU-Kommission über
ein zeitweiliges Verbot der Verwendung von Gesichtserkennung zum Schutz der
Persönlichkeitsrechte nachdenkt, hat die britische Polizei als Teil eines
risikoorientierten Plans zur Regulierung der künstlichen Intelligenz den
Einsatz der datenschutzfeindlichen Technologie vorangetrieben und die operative
Nutzung der Live-Gesichtserkennungskameras in der britischen Hauptstadt erlaubt.
Die britische Polizei erklärte,
dass die Technologie dabei helfen würde, Verdächtige schnell zu identifizieren
und festzunehmen sowie schwere Verbrechen unter anderem Waffen- und
Messerverbrechen zu bekämpfen. Die
Kameras würden in Vierteln eingesetzt, in denen es wahrscheinlich sei, dass
sich bestimmte Verdächtigte aufhalten.
Die Technologie, die die Polizei einsetzen
wird, geht über die verwendeten Gesichtserkennungssysteme hinaus, die ein Foto
mit einer Datenbank abgleichen, um eine Person zu identifizieren. Die neuen
Tools verwenden eine Software, die Personen auf einer polizeilichen
Beobachtungsliste sofort identifizieren kann, sobald sie von einer Videokamera
gefilmt werden.
22. Januar 2020
Aufgrund der neuesten Berichte über das US-Unternehmen Clearview, das eine Datenbank mit rund 3 Milliarden frei im Internet verfügbaren Fotos erstellt haben soll und mit dieser nun bei Behörden für einen Gesichtserkennungsdienst wirbt, hat sich Ulrich Kelber, der Bundesdatenschutzbeauftragte, nun klar gegen ein solches Vorgehen in Europa gestellt.
Im Statement gegenüber den Zeitungen des “Redaktionsnetzwerks Deutschland” stellte Kelber klar, dass die biometrische Gesichtserkennung im öffentlichen Raum einen potenziell sehr weitgehenden Grundrechtseingriff darstelle, der auf jeden Fall durch konkrete Vorschriften legitimiert sein müsste, an der es allerdings bislang fehle. Fraglich sei allerdings auch bereits, ob eine solche Rechtsgrundlage überhaupt verfassungskonform ausgestaltet werden könne.
Kelber befürchtet zudem, dass der Einsatz von Gesichtserkennung im öffentlichen Raum das Verhalten der betroffenen Bürger zu sehr beeinträchtigen könnte, die so beispielsweise auf die Teilnahme an Demonstrationen – und damit auf die Ausübung ihrer Freiheitsrechte – verzichten könnten, um so eine Identifizierung durch Gesichtserkennung zu verhindern.
Letztlich liegt es daher nach Aussage Kelbers daran, den Einsatz von Technologie so zu regulieren, dass eine missbräuchliche und sozialschädliche Nutzung ausgeschlossen wird.
9. Januar 2019
Mit Hilfe eines Kameraaufsatzes wird das Gesicht des Nutzers gescannt. Eine App analysiert daraufhin die Hautoberfläche und wertet ihren Zustand aus. Anhand der ausgewertet Daten hat die Neutrogena-App bereits Pflegeprodukte vorgeschlagen. Nun wurde das Angebot dahingehend ausgeweitet, dass basierend auf der Hautanalyse eine Gesichtsmaske hergestellt werden kann, die auf die individuellen Bedürfnisse der Haut zugeschnitten ist. Das unter dem Namen „MaskID“ vermarktete Produkt wertet biometrische Daten, wie Gesichtsform und Abstand zwischen Nase und Augen und den Zustand der Haut aus.
Das Kosmetikunternehmen Neutrogena überraschte auf der Technikmesse in Las Vegas mit einem ungewöhnlichen Produkt. Das Unternehmen bietet nun individuell angepasste Gesichtspflegemasken mittels Smartphone-Gesichtsanalyse für seine Kunden an.
Der Kameraaufsatz „Skin360“ ist bis jetzt nur für bestimmte iPhone-Modelle erhältlich und kostet etwa 60 US-Dollar. Er hat eine 30-fach-Vergrößerungslinse und sechs helle LEDs, die eine zuverlässige Hautanalyse gewährleisten sollen. Eine Markteinführung in Europa ist geplant.
5. September 2018
In einem Prüfbericht beanstandet der Hamburger Beauftragte für Datenschutz und Informationsfreiheit Johannes Caspar (HmbBfDI) die Erstellung von biometrischen „Gesichtsabdrücken“ durch die Polizei Hamburg.
Anlass für den Einsatz der Gesichtserkennung-Software waren die Proteste im Zusammenhang mit dem G-20 Gipfel in Hamburg. Die Hamburger Polizei hat insgesamt 100 Terabyte Bild- und Videomaterial zu Strafverfolgungszwecken erhoben. Das Bild- und Videomaterial besteht aus Aufnahmen in S-Bahnhöfen, der medialen Berichterstattung, den eigenen Aufnahmen der Polizei und privaten Aufnahmen, die BürgerInnen der Polizei zur Verfügung gestellt haben. Zur Auswertung der riesigen Datenmenge setzt die Polizei die eigens dafür angeschaffte Software „Videmo 360“ ein. Das Programm verarbeitet alle Gesichter, die in den Aufnahmen vorkommen und erstellt sog. Gesichtstemplates. Hierbei handelt es sich um mathematisch abgleichbare Modelle, die einen Gesichtsvergleich ermöglichen. Dadurch erhofft sich die Polizei Straftaten, die während des viertägigen Gipfels begangen wurden, aufzuklären.
In dem Vorgehen der Polizei sieht der HmbBfDI das Gleichgewicht zwischen staatlichen Eingriffsbefugnissen zur Strafverfolgung und dem Recht des Einzelnen auf informationelle Selbstbestimmung in Gefahr. Die massenweise Auswertung von biometrischen Daten eröffnet eine neue Dimension für staatliche Überwachung und Kontrolle. Durch die quasi uferlose Datenauswertung sind nicht nur verdächtige Personen, sondern auch Unbeteiligte betroffen. Insbesondere weist der HambBfDI auf die Möglichkeit hin, Profile von Personen zu erstellen, die weitere Nutzungs- und Verknüpfungsmöglichkeiten der Daten eröffnen.
Nach intensiver rechtlicher Prüfung gelangt der HmbBfDI zu dem „Ergebnis, dass die Erzeugung von mathematischen Gesichtsmodellen einer unbegrenzten Anzahl von in der Masse verdachtslos erfassten Bürgerinnen und Bürgern im Stadtgebiet über den Zeitraum von zumindest mehreren Tagen und deren Speicherung für eine unbestimmte Zeit einer besonderen gesetzlichen Befugnis bedarf, die den Eingriff in das informationelle Selbstbestimmungsrecht rechtfertigt.“
Durch die Erstellung einer „Gesichts-ID“ und ihren Abgleich zur Verfolgung von Straftaten im Zusammenhang mit dem viertägigen G 20-Gipfel wird massiv in das Recht auf informationelle Selbstbestimmung eingegriffen, da die Maßnahme auf keiner Rechtsgrundlage beruht. Eine derart umfangreiche Verarbeitung biometrischer Daten kann insbesondere nicht auf eine Generalklausel gestützt werden. Der HmbBfDI geht davon aus, „dass die Beanstandung dazu führt, dass der Einsatz dieses Verfahrens gestoppt wird und eine Löschung der ohne Rechtsgrundlage erhobenen biometrischen Daten erfolgt.”
15. Januar 2018
In einer Resolution hat sich der UN-Sicherheitsrat dafür ausgesprochen weltweit Fluggastdaten mit biometrischen Daten von Passagieren abzugleichen, um gegen terroristische Kämpfer vorzugehen.
Die Mitgliedstaaten sollen Systeme entwickeln, die Passenger Name Records (PNR), Advance Passenger Information (API) und biometrischen Daten, wie Fingerabdruck oder Gesichtserkennungsdaten analysieren. Diese Daten sollen dann mit „schwarzen Listen“ für bekannte Terroristen oder verdächtige Personen abgeglichen werden.
Ziel ist es auf diese Weise Terroristen und ausländische Kämpfer zu identifizieren.
Die gewonnenen Daten sollen die Mitgliedstaaten untereinander austauschen und nationalen Behörden wie zum Beispiel dem Zoll, Geheimdiensten oder Strafverfolgern zugänglich machen. In der Resolution wird betont, dass die weitreichende Überwachung von Flugreisenden “verantwortungsvoll und ordnungsgemäß entsprechend nationaler Gesetze und internationaler Menschenrechtsvorgaben” durchgeführt werden soll.