Intellisys 2024

Ci sono alcuni lavori che ti restano nel cuore ♥️ per un po’, perché ci hai messo tutta la tua passione ❤️‍🔥, il tuo impegno ed un pezzo del tuo tempo ⏱️ per portarli a termine.
La storia di questa pubblicazione inizia il 3 agosto del 2023. Esattamente un anno fa’ quando grazie ad una news diffusa su internet trovo su arXiv questo articolo: A Practical Deep Learning-Based Acoustic Side Channel Attack on Keyboards di Joshua Harrison, Ehsan Toreini, Maryam Mehrnezhad afferenti ad un gruppo di Università Londinesi.
L’articolo dice che registrando un audio con uno smartphone durante la battitura dei tasti di una tastiera ed addestrando un modello di intelligenza artificiale è possibile a partire dall’audio registrato, ricostruire con un accuratezza del 95% quali tasti sono stati cliccati. Dice inoltre che questo sistema funziona anche in video conferenza (zoom) con un accuratezza del 93%.
Decido allora il 3 Agosto dell’anno scorso di scrivere una email ad i Professori Londinesi (a tutti e tre) chiedendo se potevano mandarmi il loro dataset usato per addestrare il modello di AI usato. Il giorno dopo mi risponde il primo autore il Prof Harrison e mi manda il link al dataset augurandomi “Good Luck!” 🍀.
Inizia allora una lunga ricerca, conclusasi qualche giorno fa, dove riusciamo a migliorare i risultati ottenuti da Harrison et al, producendo una nuova pipeline ed una demo su smartphone per provare il modello di AI 🤖 usato.
Sono stati realizzati diversi dataset, per verificare questa vulnerabilità. Inoltre il funzionamento del modello è stato testato su diverse tastiere di laptop e tastiere meccaniche con diversi smartphone (iphone e xiaomi), a diverse posizioni e distanze dei microfoni 🎤 dello smartphone rispetto alla sorgente audio della tastiera ⌨️💻 e digitando a diverse velocità e con differente energia. Mesi di test e prove.
I risultati prodotti sullo stesso dataset di Harrison et al mostrano un’accuracy del 98.3% in locale e del 93,05% in video conferenza.