NewsTecnologia

Alexa, Siri e Google Assistant attivati “accidentalmente”: due studi fanno luce sul problema

La diffusione degli assistenti vocali, non solo nella forma di dispositivi destinati esclusivamente allo scopo (come per esempio Amazon Echo) ma anche come servizi integrati in altri oggetti (televisori, telefoni, orologi e via discorrendo), pone un problema e un rischio potenziale per la privacy e la sicurezza dell’utente: come è possibile, infatti, riuscire a tenere traccia delle registrazioni audio che questi servizi e dispositivi effettuano? Quali vengono inviate in cloud? Chi può effettivamente accedervi?

Sono domande a cui ricercatori dell’Università di Darmstadt, della North Carolina State University e dell’Università di Parigi Saclay, hanno provato a dare una risposta con lo sviluppo di LeakyPick: si tratta di un sistema che analizza con una certa peroidicità i dispositivi smart dotati di microfono e monitora il traffico di rete andando a ricercare schemi di pacchetti che possano indicare la trasmissione di clip audio. E tramite LeakyPick i ricercatori hanno già individuato qualcosa di interessante: vi sarebbero infatti “dozzine” di parole che attivano accidentalmente gli smart speaker Amazon Echo.

LeakyPick è costituito da un sistema Raspberry Pi che funziona generando periodicamente rumori udibili e monitora il traffico di rete sulla base di un approccio statistico applicabile ad una serie di dispositivi vocali. Lo scopo è quello di identificare registrazioni o trasmissioni audio nascoste e rilevare dispositivi eventualmente compromessi. Secondo i ricercatori LeakyPick ha un’accuratezza del 94% nell’individuare il traffico vocale e funziona sia con i dispositivi che fanno uso di una cosiddetta “wakeword”, sia per quelli che non prevedono questo tipo di operatività, come ad esempio telecamere di sicurezza o altri dispositivi IoT o smart-home.

Nel primo caso il sistema aggiunge ai suoi suoni prefissi noti (come “Alexa” o “Ok Google”) e cerca, a livello di trasmissioni di rete, picchi di traffico per verificare quando i dispositivi con microfono che genericamente non inviano molti dati causano un incremento del traffico. Questa fase di “sondaggio statistico” ha lo scopo di filtrare i casi in cui i picchi di traffico sono causati da trasmissioni non-audio. Per identificare poi quelle parole che potrebbero attivare accidentalmente l’assistente vocale, e quindi effettuare una registrazione, LeakyPick usa tutte le parole che hanno fonemi simili rispetto alle wakeword ufficiali. Oltre a queste usa anche una serie di parole scelte casualmente da un elenco arbitrario.

LeakyPick è stato quindi messo alla prova con dispositivi quali Echo Dot, Google Home, HomePod, Netatmo Welcome and Presence, Nest Protect e Hive Hub 360. Dopo aver condotto la fase di “sondaggio statistico” per ciascun dispositivo, i ricercatori hanno monitorato il traffico degli otto assistenti vocali selezionando casualmente un set di 50 parole tra le 1000 più utilizzate nella lingua inglese, combinandole con un elenco di wakeword note dei dispositivi vocali. I ricercatori hanno poi fatto interagire i componenti di tre nuclei familiari con gli altoparlanti Echo Dot, HomePod e Google Home, per un periodo di 52 giorni.

89 parole attivano Amazon Echo: anche electroresection!

Per misurare la precisione del sistema i ricercatori hanno registrato i marcatori temporali di quando i dispositivi hanno iniziato ad ascoltare i comandi, prendendo a riferimento i segnali luminosi dei dispositivi stessi: questo è stato possibile grazie ad un sensore ottico che ha permesso a LeakyPick di identificare l’attivazione dei dispositivi. Un altoparlante collegato a Raspberri Pi si è occupato di generare suoni, mentre un dongle USB-WiFi ha monitorato il traffico di rete.

Con lo scopo di provare ad identificare wakeword “accidentali”, i ricercatori hanno configurato Echo Dot per utilizzare la parola d’ordine standard “Alexa” e hanno fatto riprodurre a LeakyPick svariate clip audio, aspettando qualche secondo perché l’assistente vocale potesse ascoltare il comando. I ricercatori hanno riscontrato che ben 89 parole hanno attivato Echo Dot, alcune delle quali anche foneticamente molto differenti da “Alexa”, come “barranca”, “lechner” o “electroresection”.

Amazon ha già preso posizione sugli esiti di questa ricerca, commentando tramite un portavoce a VentureBeat: “Sfortunatamente, non ci è stata data l’opportunità di rivedere la metodologia alla base di questo studio per convalidare l’accuratezza di queste affermazioni prima della pubblicazione. Tuttavia, possiamo assicurare che abbiamo profondamente integrato la privacy nel servizio Alexa e che i nostri dispositivi sono progettati per attivarsi solo dopo aver rilevato la parola di riattivazione. I clienti parlano con Alexa miliardi di volte al mese e in rari casi i dispositivi possono attivarsi dopo aver sentito una parola che suona come “Alexa” o una delle altre parole di riattivazione disponibili. In base alla progettazione, il nostro rilevamento delle parole d’ordine e il riconoscimento vocale migliorano ogni giorno questo perché i clienti utilizzano i loro dispositivi e in questo modo possiamo ottimizziarne le prestazioni “.

Non solo Alexa: un altro studio evidenzia lo stesso problema per Siri e Google Assistant

Tutte le attivazioni seguite alle 89 parole hanno poi innescato la trasmissione delle registrazioni audio ai server Amazon. “Dal momento che i dispositivi IoT e i dispositivi smart-home sono sempre più provvisti di microfoni, si avverte una crescente necessità di difese concrete per la privacy. LeakyPick rappresenta un approccio interessante per mitigare una vera minaccia alla privacy della smarthome” commentano i ricercatori.

Alcune considerazioni sullo studio: si tratta ovviamente di una ricerca effettuata solo sui fonemi della lingua inglese, ma considerando la differenza fonetica tra una parola come “electroresection” e “Alexa” è ragionevole supporre che la stessa problematica si possa presentare anche con idiomi differenti, seppur con probabilità diverse.

Contenuto non disponibile
Consenti i cookie cliccando su "Accetta" nel banner"

I ricercatori hanno effettuato questo test specifico solamente con un dispositivo Amazon Echo, ma sarebbe stato interessante verificare se anche altre tecnologie di riconoscimento vocale (almeno le altre due più diffuse: Siri e Google Assistant) possano offrire comportamenti simili. Ma su questo ha già provato a far luce un altro studio, questa volta da parte degli scienziati della Ruhr-Universität Bochum (RUB) e del Bochum Max Planck Institute (MPI) for Cyber Security and Privacy, che hanno identificato un migliaio di frasi che attivano accidentalmente gli assistenti vocali come Siri, Google Assistant e la stessa Alexa.