Il phishing vocale (vishing) ha registrato un preoccupante aumento del 550% tra il primo trimestre del 2021 e il primo trimestre del 2022. Truffatori, mascherati da entità rispettabili o persino colleghi, utilizzano tattiche convincenti per indurre vittime ignare a compiere azioni che si tradurranno in guadagni per loro, come l’acquisto di buoni regalo o criptovalute. La paura e la confusione vengono sfruttate al massimo, ad esempio, quando il truffatore si fa passare per un agente di polizia minacciando conseguenze legali, costringendo la vittima a versare una grande somma in criptovaluta.
In un’evoluzione di questo attacco, l’utilizzo di chatbot vocali basati sull’intelligenza artificiale promette di amplificare la minaccia. Questi assistenti vocali, indistinguibili da un essere umano, non solo gestiranno conversazioni complesse, ma potrebbero anche imitare con precisione toni di voce e stili di comunicazione specifici, superando così la dipendenza da operatori umani. La convinzione e la sofisticatezza di tali chatbot potrebbero elevare il vishing a nuovi livelli di inganno.
Mentre il vishing sfrutta la vulnerabilità umana, la prospettiva di chatbot vocali avanzati rappresenta una seria sfida che prevediamo crescerà significativamente nel 2024, portando il phishing vocale ad un livello senza precedenti di pericolosità. Questi chatbot potrebbero effettuare chiamate di massa, adattarsi alle risposte delle vittime e implementare tattiche di ingegneria sociale più sofisticate. Inoltre, potrebbero non richiedere nemmeno la partecipazione di un attore della minaccia “umano”, aumentando l’efficienza e la portata delle operazioni.
L’impatto previsto è che la combinazione di audio deepfake convincente e Large Language Models (LLM) sarà in grado di portare avanti conversazioni con vittime ignare in modo estremamente persuasivo. Questa evoluzione tecnologica potrebbe superare la capacità di individuare il falso da parte delle vittime, aumentando il rischio di successo delle operazioni di vishing. Affrontare questa minaccia richiederà nuove strategie di difesa, compresa l’implementazione di sistemi avanzati di riconoscimento vocale e l’istruzione costante degli utenti sulle potenziali minacce del vishing. La cybersecurity deve evolversi in parallelo con le nuove frontiere dell’intelligenza artificiale per proteggere efficacemente le organizzazioni e gli individui dall’ingegneria sociale vocalmente assistita.