Dalle voci dei parenti clonate dall'IA nascono nuove truffe sofisticate: il fenomeno, le tecniche più diffuse, i rischi per le vittime e i metodi più efficaci per individuarle e proteggersi dalle frodi avanzate.
Nel corso degli ultimi anni, l'ingegnosità dei criminali informatici ha raggiunto nuovi livelli, utilizzando strumenti digitali avanzati e sfruttando l'intelligenza artificiale per perfezionare le proprie strategie. Una delle minacce più insidiose è rappresentata dalle truffe vocali, nelle quali i malintenzionati riescono a replicare fedelmente le voci di amici, parenti o figure autorevoli. Capacità sempre più elevate di imitazione rendono questi raggiri difficilissimi da identificare al primo ascolto, coinvolgendo soprattutto le categorie più vulnerabili come gli anziani. Non si tratta più solo di messaggi sospetti, ma di vere e proprie telefonate e persino video che riproducono sembianze e voce di persone reali, spingendo le vittime a compiere azioni impulsive e dannose.
Le truffe vocali basate sull’intelligenza artificiale consistono in tentativi di frode che sfruttano tecnologie di clonazione vocale avanzata per riprodurre, in modo impressionante, la voce di persone note alle vittime. Il processo inizia spesso con l’acquisizione di un campione audio: bastano pochi secondi presi da un messaggio vocale, un video social o una chiamata per permettere ai software dedicati di ricreare ogni inflessione specifica. Gli strumenti oggi reperibili online sono spesso economici e accessibili a chiunque, non richiedono competenze tecniche approfondite e sono capaci di generare cloni vocali con una somiglianza anche superiore al 90%.
Al cuore di questi attacchi c'è la spinta a creare uno stato di emergenza emotiva, convincendo la vittima ad agire d’impulso: ad esempio, una telefonata in cui la voce apparentemente riconoscibile di un figlio o di un nipote racconta un grave incidente e chiede urgente denaro. I truffatori possono inoltre sfruttare altre forme di manipolazione, come lo spoofing del numero del chiamante, facendo così apparire il contatto come riconducibile a una fonte affidabile.
I rischi associati a queste truffe sono molteplici:
I cybercriminali impiegano diverse strategie per ottenere campioni vocali e ingannare le vittime. La tecnica delle chiamate mute risulta tra le più diffuse: ricevere una telefonata da un numero sconosciuto e sentirsi solo silenzio può sembrare un errore o un tentativo di telemarketing, ma in realtà bastano anche pochi secondi di risposta e frasi come "Pronto?" perché i truffatori ottengano ciò che serve per clonare la voce.
Altro strumento chiave è lo spoofing, vale a dire la falsificazione del numero di telefono del chiamante. In questo modo, sullo schermo dello smartphone appare un contatto affidabile, spesso quello di un familiare, di un collega o addirittura della banca o di istituzioni pubbliche. La vittima, in fiducia, tende a seguire le istruzioni impartite dalla voce clonata senza sospettare la truffa.
L’evoluzione delle tecniche ha portato anche ai deepfake vocali e video. Questi sistemi, sfruttando reti neurali e sofisticati algoritmi di apprendimento automatico, possono generare messaggi audio completamente sintetici oppure alterare video in tempo reale, imitando fedelmente la presenza e il linguaggio del corpo delle persone coinvolte. I deepfake sono impiegati per truffe che vanno dal "figlio in pericolo" alla richiesta urgente di denaro da parte di esponenti aziendali, come succede nei noti casi di ceo fraud.
A queste pratiche si aggiunge la tendenza dei cybercriminali a integrare informazioni personali raccolte dai social network, rendendo ancora più credibili le proprie richieste e adattando il messaggio alla situazione reale della vittima. Il pericolo si cela nella capacità di personalizzazione e nella qualità sempre maggiore del deep learning, che riduce drasticamente la possibilità di riconoscere immediatamente un tentativo fraudolento.
Le statistiche e i recenti casi di cronaca evidenziano che le truffe con voce clonata colpiscono una platea eterogenea, ma con predilezione per i soggetti più esposti. Gli anziani risultano tra i principali bersagli, anche a causa di possibili limiti uditivi, minore alfabetizzazione digitale e una naturale propensione a fidarsi delle voci familiari. È proprio il caso di Pietrasanta, dove una anziana ha evitato una truffa grazie alla sua attenzione, riconoscendo delle discrepanze durante una telefonata della "finta nipote" che chiedeva aiuto dopo un finto incidente.
Oltre agli over 60, sono coinvolti anche genitori, imprenditori e dirigenti aziendali. Numerosi sono gli episodi documentati in Italia e nel resto del mondo:
L’individuazione tempestiva di una truffa vocale basata su IA richiede capacità di osservazione e prontezza emotiva. Tra i segnali più ricorrenti che possono destare sospetti si segnalano:
Consigli pratici per proteggersi comprendono:
La crescente sofisticazione delle truffe vocali impone un approccio sistematico alla prevenzione. Oltre alle modalità di riconoscimento, la difesa passa attraverso semplici strategie individuali e strumenti di protezione, spesso combinati tra loro.
Le principali azioni raccomandate includono:
Infine, in caso di sospetto tentativo di truffa, è buona prassi: