L’università di Zhejiang ha trovato una debolezza nelle IA come Siri, Alexa e altri, che posso essere manomessi attraverso delle frequenze impercettibili all’orecchio. Ma è necessario che siano molto vicini alla sorgente.
E SE perfino i nostri assistenti vocali potessero “tradirci”? È questa la scoperta di un team dell’università cinese di Zhejiang, che ha individuato una debolezza nelle architetture di Siri, Alexa e di altri aiutanti informatici. Il gruppo ha tradotto in ultrasuoni i comandi più usati dai proprietari degli assistenti vocali , come “okay” e “ciao”, e il sorprendente risultato è stato la possibilità di poter comandare a distanza questi apparecchi, che rispondono ed eseguono gli ordini.
La falla riguarda la maggior parte degli apparecchi. Sono stati colpiti Amazon, Google, Apple, Samsung, Microsoft e Huawei. I ricercatori hanno dato alla tecnica il nome di DolphinAttack perché, proprio come i versi dei delfini, le frequenze degli ultrasuoni sono impercettibili all’orecchio umano ma perfettamente udibili dagli assistenti vocali. Interessante come per abilitare le tecnologie necessarie allo studio siano stati sufficienti tre dollari, per comprare un altoparlante e un amplificatore e per aggiungere ad un semplice smartphone un hardware e anche chi ha poche conoscenze informatiche può metterlo in atto.