Siri può essere attivato anche con i comandi “A city” e “Hey, Jerry”

Il problema delle attivazioni "errate" degli assistenti virtuali è noto da tempo, ma alcuni ricercatori hanno scoperto delle particolari parole in grado di attivare quasi sempre Siri.

I ricercatori della Ruhr-Universität di Bochum in Germania hanno scoperto alcuni comandi in grado di attivare inavvertitamente “Hey Siri” e altri assistenti virtuali.

Human Interface Guidelines

Siri non è certo l’unico assistente virtuale che si attiva inavvertitamente con dei falsi trigger, ma questo studio ha scovato alcuni comandi che riescono quasi sempre ad attivare l’assistente virtuale di Apple. Ad esempio, Siri può essere attivato con comandi come “A city” o “Hey Jerry“, ovviamente con la giusta pronuncia in inglese.

Lo studio ha compilato un elenco di oltre 1.000 parole che possono attivare accidentalmente diversi assistenti virtuali. Lo stesso, infatti, vale anche per Alexa di Amazon, Microsoft Cortana e Google Assistant, con i ricercatori che fanno notare come questi assistenti virtuali possono essere attivati inavvertitamente anche da trasmissioni TV e film.

Ad esempio, Alexa viene attivato con le parole “unacceptable” ed “election“, mentre Google Assistant con il comando “OK, cool“.

La dottoressa Dorothea Kolossa, responsabile dello studio, ha spiegato che “… i dispositivi sono programmati volutamente per essere un po’ più tolleranti nel recepire i comandi, perché dovrebbero essere in grado di comprendere i loro umani. Pertanto, è più probabile che si avviino una volta in più anziché per niente“.

Dal punto di vista della privacy, il problema con queste parole di risveglio è che possono comportare l’invio di audio ai produttori quando non previsto dall’utente. Apple e Amazon hanno comunque attivato una serie di azioni che gli utenti possono effettuare per limitare la raccolta dei dati, che ricordiamo viene effettuata in modo anonimo per migliorare la qualità degli assistenti virtuali.

Dal punto di vista della privacy, i falsi trigger sono ovviamente allarmanti, perché a volte le conversazioni molto private possono essere ascoltate da estranei”, ha affermato Thorsten Holz, un altro ricercatore del progetto. “Da un punto di vista ingegneristico, tuttavia, questo approccio è abbastanza comprensibile, poiché i sistemi possono essere migliorati solo utilizzando tali dati. I produttori devono trovare un equilibrio tra protezione dei dati e ottimizzazione tecnica“.

E voi, avete mai notato attivazioni errate di Siri con comandi del tutto diversi da “Hey Siri”?

HotAcquista iPhone 15 su Amazon!
Curiosità