Skill Squatting – So kapern Anbieter Marken-Skills bei Amazons Alexa
Weiteres Problem: Fremdanbieter könnten potenzielle gefährliche Skills unter bekannten Markennamen anbieten, ohne dass der Nutzer das bemerke. „So stellen beispielsweise bekannte Automobilkonzerne für ihre smarten Systeme Sprachbefehle zur Verfügung. User laden diese im Glauben herunter, dass die Skills direkt vom Unternehmen stammen. Doch das ist nicht immer der Fall“, warnt Martin Degeling vom Lehrstuhl für Systemsicherheit der RUB. „In einem Versuch haben wir selbst Skills im Namen eines großen Unternehmens veröffentlichen können. Hier können durchaus wertvolle Informationen von Nutzer*innen abgegriffen werden.“ Zwar prüfe und zertifiziere Amazon alle eingereichten Skills, oft falle das sogenannte Skill Squatting, also das Übernehmen von schon vorhandenen Anbieternamen, aber nicht auf. Die Forscher warnen davor, dass es so künftig möglicherweise zu einer Art Phishing auch über Sprachassistenten kommen könne.
Zusätzliche Probleme bestehen unter anderem bei den Quellen, die Alexa nutzt: Oft sei nämlich den Nutzern gar nicht klar, auf welche Funktion Alexa dabei zugreift. So könne Alexa bei einem angeforderten Kompliment etwa auf 31 verschiedene mögliche Anbieter zurückgreifen! Dabei können Daten, die für die technische Umsetzung der Befehle benötigt werden, ungewollt an externe Anbieter weitergeleitet werden. Welche Problem bei einer fehlerhaften Quellennutzung durch Amazons Assistentin auftreten können, zeigte sich u. a. bei einem Fall, in dem Alexa quasi eine Nutzerin zum Selbstmord aufforderte.
Risiken gebe es auch durch erhebliche Mängel in den Allgemeinen Datenschutzerklärungen der angebotenen Skills: Nur ein Viertel der Funktionen habe überhaupt eine Privacy Policy. Erschwert werden die genannten Probleme für den Nutzer auch durch eine Änderung: Die Alexa-Skills werden seit 2017 automatisch aktiviert, davor musste der Nutzer jeweils einzeln zustimmen, heißt es.
Kommentar schreiben