La recente truffa di cui sono rimasti vittima Massimo Moratti e diversi altri imprenditori italiani contattati da un falso Guido Crosetto ha messo in luce il pericolo crescente rappresentato dai deepfake vocali.
Un episodio che, oltre a essere un caso emblematico di cybercrime di alto livello, ci ricorda che nessuno è al sicuro da queste minacce, nemmeno nella vita quotidiana: i deepfake, e in particolare quelli vocali, rappresentano un pericolo per tutti.
La truffa del falso Crosetto: cosa sappiamo
In particolare, un gruppo di truffatori, utilizzando sofisticate tecnologie di intelligenza artificiale, ha simulato la voce del Ministro della Difesa per ingannare imprenditori di spicco e ottenere rimborsi economici con la finalità di costituire fondi utili a liberare presunti giornalisti rapiti in Medio Oriente.
L’esca sembrerebbe essere stato il caso della giornalista Cecilia Sala ingiustamente arrestata in Iran: sfruttando il clamore generato, i criminali informatici avrebbero contattato facoltosi imprenditori raggirati con la notizia secondo cui altri giornalisti italiani fossero stati rapiti in Iran e Siria e che il governo avesse bisogno di un prestito milionario per pagare il riscatto.
Nella trappola sarebbe caduto l’ex presidente dell’Inter, Massimo Moratti, mentre altri imprenditori tra cui Giorgio Armani, Marco Tronchetti Provera e Diego Della Valle si sarebbero insospettiti delle strane telefonate evitando, così, la truffa.
Deepfake vocali: un pericolo che colpisce tutti
In realtà, se da un lato le vittime eccellenti attirano l’attenzione mediatica, le truffe basate su deepfake vocali sono ormai diffuse anche a livello personale e aziendale. Un dirigente d’azienda (clamoroso è stato il tentativo di truffa, poi sventato, che ha visto protagonista l’amministratore delegato della Ferrari, Benedetto Vigna), un impiegato che gestisce bonifici o persino una persona anziana possono essere bersagli di queste frodi.
Non è necessario essere un politico o un VIP per cadere vittima di una manipolazione vocale.
Negli ultimi anni, casi di questo tipo sono aumentati in tutto il mondo. A Treviso, una donna di 84 anni ha consegnato 30mila euro a un truffatore che utilizzava la voce clonata della figlia, disperata al telefono dopo un finto incidente stradale.
Negli Stati Uniti, una madre ha ricevuto una chiamata con la voce clonata della figlia quindicenne, che sembrava rapita, con i criminali che chiedevano un riscatto.
Il panico e l’urgenza della situazione hanno portato molte vittime ad agire senza verificare, spesso con conseguenze economiche e psicologiche devastanti.
Come funziona il deepfake vocale
Le tecnologie di intelligenza artificiale generativa hanno reso più semplice che mai clonare una voce. Bastano pochi secondi di registrazione – facilmente ottenibili da un messaggio vocale su WhatsApp, un video sui social o una chiamata intercettata – per creare una replica credibile.
I truffatori possono quindi simulare conversazioni in tempo reale, inducendo le vittime a fidarsi e ad agire senza sospetti.
Spesso di parla di adeguamenti normativi, per leggi che non sarebbero al passo con i tempi. Effettivamente qualcuno di recente ha anche ipotizzato l’introduzione del “reato deepfake”.
Tuttavia, non dimentichiamo che tali operazioni sono già oggi illecite e configurabili appunto come truffa, così come sostituzione di persona, reati già ben noti.
Difendersi è possibile?
Ad oggi, non esistono strumenti automatici infallibili per riconoscere un deepfake vocale in tempo reale e smascherarlo. È anche vero che le piattaforme maggiormente utilizzate per generare queste creazioni della manipolazione (immagini, video, audio), stanno iniziando a introdurre algoritmi di moderazione nelle fasi prima della generazione del contenuto.
Un esempio è quello che interviene se si tenta di creare (con tool comuni) un deepfake di una persona nota, non appena viene riconosciuto il volto come “celebrità”, un blocco avvisa l’utente sull’impossibilità di proseguire.
Altri tool più o meno comuni tentano di filtrare le chiamate (es. Truecaller) in entrata se provenienti da numeri già censiti come truffaldini. Mentre invece ancora non esiste un filtro a livello di provider telco, che possa segnalare quando una chiamata arriva con l’ID chiamante alterato, che sarebbe invece un passo decisivo nella difesa del cittadino: visto che riceviamo ormai tutti costantemente chiamate da numeri qualsiasi ma con ID chiamante modificato che addirittura spesso si “traveste” da istituto bancario.
Ci sono sicuramente alcuni accorgimenti per ridurre il rischio:
- Verificare l’identità della persona: se si riceve una chiamata sospetta da qualcuno che si conosce, porre una domanda personale a cui solo l’interlocutore reale potrebbe rispondere, in alcuni casi questa tecnica è servita a sventare la truffa.
- Richiamare su un numero noto: se un familiare o un collega sembra chiedere aiuto con urgenza, riagganciare e richiamarlo su un numero già salvato in rubrica.
- Utilizzare una parola d’ordine segreta: negli Stati Uniti molte famiglie hanno iniziato a concordare una “safe word”, una parola sicura da usare in caso di emergenze per verificare l’identità di chi chiama.
- Evitare di diffondere messaggi vocali pubblici: anche se può sembrare eccessivo, limitare l’uso della propria voce sui social media può ridurre il rischio che venga clonata.
- Usare app di identificazione delle chiamate: strumenti come Hiya AI Phone e Truecaller possono segnalare numeri sospetti o già noti per tentativi di frode.
L’importanza della consapevolezza
Le truffe basate sull’IA e sui deepfake sono destinate a diventare sempre più sofisticate e convincenti. Per questo, la miglior difesa resta ad oggi sempre la consapevolezza. Informarsi, adottare misure di sicurezza e diffondere conoscenza su questi pericoli può fare la differenza tra cadere vittima di una frode o evitarla in tempo.
Sospettare di ogni richiesta fatta a sfondo di urgenza, porsi sempre delle domande prima di compiere azioni che non effettuiamo quotidianamente, verificare in prima persona e non farsi trasportare passivamente.
L’episodio della truffa del falso Crosetto è solo l’ultimo di una lunga serie e un monito per tutti: nessuno è immune da queste minacce e la prudenza deve diventare una regola quotidiana.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link