Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Update vom 2. August 2019:

Nach Google stoppt auch Apple Ton-Mitschnitte der Assistenzsoftware Siri. Der Stopp gilt ab sofort und weltweit. Zukünftig sollen Nutzer selbst entscheiden, ob Ton-Mitschnitte angefertigt und für eine Qualitätsprüfung an Drittfirmen gegeben werden dürfen. Die Funktion soll in einem Software-Update nachgereicht werden.

Via: The Verge

Ursprünglicher Artikel vom 29. Juli 2019:

Anzeige
Anzeige

Nach den Enthüllungen zum Google Assistant und Amazon Alexa spricht ein Whistleblower der Vollständigkeit halber nun über Apples Umgang mit Siri-Sprachdaten.

In den vergangenen Wochen verrieten Insider, dass sowohl Googles Assistant als auch Amazons Alexa einzelne Sprachbefehle aufzeichnen und zwecks Qualitätsverbesserung der Spracherkennung an Drittfirmen weiterreichen.

Wenig überraschend: Eben das findet auch bei Apple statt, wie ein Whistleblower aus einer solchen Drittfirma der britischen Zeitung The Guardian erzählt. Apple selbst bestätigte das Vorgehen erstmals im April gegenüber Bloomberg.

Laut Apple werden weniger als ein Prozent der täglichen Siri-Befehle aufgezeichnet und von Menschen ausgewertet. Typischerweise sollen diese Aufzeichnungen nur wenige Sekunden lang sein.

Die Sprachaufnahmen sind laut Apple nicht mit der Apple ID verknüpft, können aber dennoch personalisiert sein: nämlich dann, wenn der Fragesteller in seiner Frage Details über sich selbst oder beispielsweise seinen Wohnort angibt.

Empfehlung

Laut des Whistleblowers gibt Apple zusätzlich Nutzerdaten an zum Standort, Kontakt und zu App-Daten.

Siri hört auch mal so zu

Während die gelegentliche Aufzeichnung für Qualitätstests in den Datenschutzrichtlinien der Unternehmen geregelt ist, wenn auch nicht transparent, sind jene Mitschnitte problematisch, die eigentlich gar nicht hätten passieren sollen, da Siri, der Assistant oder Alexa versehentlich aktiviert wurden.

So sollen Siris Auswerterfirma zahlreiche Aufnahmen mit medizinischen und geschäftlichen Informationen vorliegen, mit womöglich kriminellen Absprachen und Sexmitschnitten. Die Apple Watch liefert laut des Whistleblowers Gesprächsausschnitte, die bis zu 30 Sekunden lang sind. Auch der Homepod liefert viele solcher Aufzeichnungen.

Diese versehentlichen Aktivierungen sollen laut des Whistleblowers als technisches Problem protokolliert werden. Über den Inhalt wird nicht berichtet.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Das eigentliche Risiko sieht er nicht in Apples Umgang mit den Daten, sondern in Auswertern mit möglicherweise boshaften Absichten. Die Angstellten in seiner Firma würden häufig wechseln.

"Es ist nicht so, dass die Angestellten ermutigt werden, Rücksicht auf die Privatsphäre der Menschen zu nehmen oder darüber nachzudenken. Wenn es jemanden mit boshaften Absichten gäbe, wäre es nicht schwer, [Personen auf den Aufnahmen] zu identifizieren", sagt der Whistleblower.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!