Schlagwort: Siri

Barbie meets Datenschutz

19. März 2015

Die Barbie-Puppe – der Spielzeugklassiker der Firma Matell. Seit 1959 geht Barbie stets mit der Zeit und orientiert sich an aktuellen (Mode-) Trends. Das gilt auch für das digitale Zeitalter. So hat es die beliebte Puppe zu ansehnlichem Erfolg bei Konsolenspielen und in Animationsfilmen gebracht. Medienberichten zufolge soll Barbie in diesem Jahr auch interaktiv und vernetzt in – zunächst US amerikanische – Kinderzimmer einziehen. Ganz im Stile von Siri soll die Puppe mit einer Spracherkennung und Internetkonnektivität ausgestattet werden. Eltern sollen über das Smartphone die Bedienung der Puppe nicht nur steuern, sondern auch auf die auf einem Server gespeicherten Sprachdaten zugreifen und diese löschen können. Die Gespräche sollen mit einer Spracherkennungssoftware ausgewertet werden, damit die Puppe möglichst genaue Antworten erwidern kann, berichtet heise online.

So amüsant es zunächst klingen mag, das Thema ist von außerordentlicher datenschutzrechtlicher Brisanz. Die kritischen Fragen sind seit Siri bekannt: Auf welchen Servern liegen die Sprachdateien? Wer hat Zugriff? Liegt eine Ermächtigung zugrunde, um die Daten zu sammeln und zu verarbeiten? Werden sie eventuell sogar an Dritte weitergegeben, um gezielte Werbung zu versenden, um Persönlichkeitsprofile zu erstellen? Was geschieht mit Umgebungsgeräuschen und Informationen, die nur zufällig aufgenommen werden? Alles bekannte Risiken, die jeder vollmündige Nutzer selber abwiegt, wenn er ein entsprechendes Spracherkennungsprogramm verwendet. Doch Barbie ist ein Spielzeug, naturgemäß – abgesehen von ein paar Liebhabern und Sammlern – somit ein Gebrauchsgegenstand für Kinder. Oder anders gesagt: Ein (nicht nur) datenschutzrechtlicher Risikococktail getarnt in einem harmlosen Kinderspielzeug. Deshalb schlagen bereits besorgte Eltern und Jugendschutzorganisationen Alarm, bevor es zu einer Serienproduktion der Puppe kommt. Die Campaign for a Commercial Free Childhood (CCFC) sieht in dem Spielzeug eine Gefährdung der Privatsphäre. Die Puppe ist in der Lage, sensible Informationen über das soziale Umfeld des Kindes, deren Entwicklung und Vorlieben zu sammeln. Eine Auswertung solcher Daten ist zum Beispiel für die Werbeindustrie von unsagbarem Wert. Soziologisch und psychologisch betrachtet, besteht hierin sogar ein hohes Manipulations- uns Missbrauchspotential an den Daten. Die „Opfer“: Kinder. Und diese sind bekanntlich besonders schutzbedürftig.

Natürlich stehen mit dem Einzug internetfähigen Spielzeugs in Kinderzimmern die Eltern in der Verantwortung und in der Pflicht, ihre Schützlinge zu schützen. Wie schwierig jedoch die Umsetzung im Alltag ist und wie oft Eltern und Pädagogen sich ob der digitalen Gefahren überfordert fühlen, ist schon von Smartphone, Apps, Social Media & Co. bekannt. Es geht also auch und vor allem um die Internetkompetenz der Eltern. Brisanz gewinnt das Thema nun dadurch, dass es sich um einen Gebrauchsgegenstand gezielt für Kinder handelt, die Gefahr also nicht unbedingt bewusst wahrgenommen wird, sondern als Begleiterscheinung eines pädagogischen Werkzeugs (Puppe) in Erscheinung tritt.

Siri speichert Spracheingaben zwei Jahre lang

22. April 2013

Gegenüber dem WIRED Magazine hat Apple jetzt erstmals offengelegt, was mit Daten geschieht, die man Siri anvertraut.

Demnach wird bei der Verwendung von Siri für jeden Nutzer eine zufällige Nummer generiert, die es ermöglicht, die jeweiligen Sprachdaten dem Nutzer zuzuordnen. Apple betont dabei, dass die Sprachdaten einzig mit dieser Nummer, nicht aber mit der Apple-ID und der E-Mailadresse des Nutzers verknüpft werden. Die Verknüpfung von Identifikationsnummer und Sprachdaten bleibt dabei sechs Monate bestehen. Nach Ablauf der sechsmonatigen Periode wird ausschließlich die Nummer von den Sprachdateien entfernt – die Sprachdaten selbst verbleiben jedoch bis zu 18 weitere Monate zu Test- und Produktverbessrungszwecken auf Apple Servern. Eine Zuordnung zu dem Sprecher soll jedoch nicht mehr möglich sein. Angesichts der immer besser werdenden Spracherkennungssoftware muss man sich jedoch die Frage stellen, ob Apple diese Daten, wenn es denn gewollt wäre, nicht zumindest theoretisch über ein Stimmprofilabgleich doch rückverknüpfen könnte.

Zumindest die Daten der letzten sechs Monate lassen sich laut Angaben von Apple Sprecherin Trudy Muller löschen: Bei Deaktivierung von Siri sollen sowohl die Nummer als auch die damit verbunden Sprachdaten gelöscht werden. Sämtliche davor von der Identifikationsnummer entkoppelten Sprachdaten können natürlich prinzipbedingt nicht entfernt werden und verbleiben auf Apples Servern.

Bevor man seine Daten einer Online-Spracherkennung anvertraut, sollte man bedenken, dass diese vor allem ihrem Betreiber und nicht dem Endnutzer dient. Man sollte daher überlegen, ob man diese Daten einem Fremden über Jahre hinweg preisgeben würde. Große Unternehmen wie IBM haben die Gefahr eines unbewussten, bzw. unüberlegten, Datentransfers bereits frühzeitig erkannt und daher Dienste wie Siri auf den Endgeräten ihrer Mitarbeiter gesperrt.

Kategorien: Online-Datenschutz
Schlagwörter: , ,

Apple: Spracherkennung Siri birgt Datenschutzrisiken

26. Juli 2012

Apples Spracherkennungsassistentin Siri (Abkürzung für: Speech Interpretation and Recognition Interfaceerfreut sich seit ihrer Einführung im Betriebssystem iOS 5 großer Beliebtheit. Dabei ist zu vermuten, dass vielen Nutzern die konkrete Funktionsweise der Software nicht bewusst ein dürfte. Gleiches dürfte für die datenschutzrechtlichen Bedenken, insbesondere wegen des Umstandes, dass jede Sprachanfrage auf den Servern von Apple auf unbestimmte Zeit gespeichert wird,  gegenüber der Software gelten.

Wie Technology Review in seiner Online-Ausgabe berichtete, ermöglichen die gespeicherten Daten über die Anlage von Stimmprofilen auch die biometrische Identifizierung von Nutzern. Apple-Sprecherin Trudy Muller soll dies bestätigt, jedoch zugleich darauf hingewiesen haben, dass das Unternehmen besonders hohen Wert auf den Schutz der Privatsphäre seiner Kunden legt. So würden die Anfragen der Nutzer und die dazugehörigen Antworten verschlüsselt übertragen und die aufgezeichneten Daten nicht mit anderen Informationen zu den Nutzern verknüpft. Nach dem Bericht stimmt dies jedoch nicht in Gänze: Um eine Frage an Siri zu bearbeiten, sollen die Sprachdaten an Apple-Server übertragen, in Lautbestandteile zerlegt und die erkannten Worte dann inhaltlich analysiert werden. Um den Inhalt in einen Kontext zu stellen, greife das Analysesystem auch auf die Kontaktliste und die Position des Smartphones zurück, von dem die Frage stammt. Die Stimmaufzeichnung berge daher grundsätzliche Gefahren. Zum einen könnten die Daten an nicht autorisierten Stellen gelangen und sowohl für Strafverfolgungsbehörden als auch für Hacker von großem Interesse sein. Zum anderen könnten repressive Regime sich für Aufzeichnungen interessieren, wer sein Smartphone nach dem Ort einer politischen Demonstration gefragt habe.