Die Erkenntnis, dass Mitschnitte von Gesprächen mit Assistenten wie Alexa und Siri auch von Mitarbeitern gehört werden können, löste 2019 viel Kritik aus. Anbieter fragen die Nutzer nun um Erlaubnis.
Sprachassistenten, die sich in den vergangenen Jahren über Geräte wie Amazons vernetzte Echo-Lautsprecher oder Apples iPhones ausbreiteten, galten mal als die Zukunft, mal als halbgare Spielerei – aber in diesem Jahr kam ein unangenehmes Geheimnis der Branche ans Licht. Damit die Software die Nutzer verstehen kann, müssen immer wieder Aufzeichnungen von Dialogen nachträglich von Menschen angehört werden. Den weitaus meisten Nutzern war das nicht bewusst. Auch weil die Praxis in Unterlagen bestenfalls irgendwo ganz tief im Kleingedruckten erwähnt wurde. Oder gar nicht.
Der Ball kam ins Rollen im April. Der Finanzdienst Bloomberg enthüllte, dass einige Mitschnitte von Unterhaltungen mit Amazons Assistenzsoftware Alexa an diversen Standorten rund um die Welt ausgewertet werden, unter anderem in Boston, Costa Rica, Indien und Rumänien. Und zwar nicht nur direkt beim Konzern, sondern auch bei Dienstleistungs-Firmen. Ein Mitarbeiter aus Boston sagte, er habe zum Beispiel Aufzeichnungen mit den Worten «Taylor Swift» analysiert und sie mit der Anmerkung versehen, dass die Nutzer die Sängerin meinten.
Danach wurde Schritt um Schritt klar, dass es bei Apples Siri und dem Google Assistant nicht anders läuft.
Die Dienste-Anbieter stehen vor einem realen Problem. Nutzer erwarten, dass ein Sprachassistent sie versteht. Aber wie verbessert man die Software bei Fehlern, wenn man nicht genau weiß, wo und wie sie sich geirrt hat? Das sei insbesondere wichtig bei speziellen Fällen wie Dialekten oder Akzenten, die man schlecht mit einem generellen Anlernen der Programme abdecken könne, heißt es in der Branche.
Ein ebenso schwieriger Fall sind die fehlerhaften Aktivierungen, bei denen die Sprachassistenten zu Unrecht glauben, ihr Weckwort wie «Alexa» oder «Hey, Siri» gehört zu haben. Hier ist es für die Entwickler wichtig, zu wissen, welche Laute genau zu dem Missverständnis führten, um sie Software entsprechend anzupassen.
Allerdings sind die Aufzeichnungen nach fehlerhaften Auslösungen auch potenziell besonders bedenklich aus Datenschutz-Sicht: Denn sie enthalten Sätze, die höchstwahrscheinlich nicht für den Sprachassistenten bestimmt waren, sondern aus Unterhaltungen zwischen den Nutzern stammen dürften. Der Mitarbeiter eines Apple-Dienstleisters erzählte der Zeitung «Guardian», auf den Aufnahmen seien zum Teil sehr private Details zu hören. So schnappe Siri auch Fragmente von Gesprächen mit medizinischen oder geschäftlichen Inhalten, mögliche kriminelle Aktivitäten oder auch Nutzer beim Sex auf, sagte er.
Nach den Enthüllungen war die bisherige Praxis nicht mehr aufrechtzuerhalten. Der Apple-Konzern, für den die Kritik angesichts des jahrelangen Datenschutz-Versprechens besonders schmerzhaft war, zog als erster die Reißleine und kündigte an, Aufnahmen nur noch nach ausdrücklicher Erlaubnis der Nutzer von Menschen auswerten zulassen. Zudem geschieht das nur noch beim Unternehmen selbst und nicht mehr bei Dienstleistern. Auch Google entschied sich für ein «Opt-In»-Verfahren mit vorheriger Zustimmung.
Amazon hingegen wählte eine andere Lösung. Der Online-Händler wählte ein sogenanntes «Opt-out», bei dem die Nutzer einer Verwendung ihrer Mitschnitte zwar widersprechen können, sie aber standardmäßig vorausgesetzt wird. Amazon sehe darin die bessere Lösung für die Nutzer, sagt Gerätechef Dave Limp. Es könne natürlich sein, dass die Konkurrenten weiter beim maschinellen Lernen seien als Amazon – was er sehr bezweifele -, «oder ihre Dienste werden sich nicht so schnell verbessern». Er hoffe, «dass wir eines Tages keine Beteiligung von Menschen brauchen werden» – noch sei das aber notwendig. Zugleich seien die Reaktionen in den Medien stärker gewesen als bei den Nutzern: «Die Kunden haben nicht aufgehört, Alexa zu nutzen.»
Andrej Sokolow, dpa