L'intelligenza artificiale avanza a passi da gigante, ma non solo per creare arte o migliorare processi. Gli esperti di cybersicurezza mettono in guardia su un aumento di truffe in cui vengono clonate voci e immagini di celebrità come Ariana Grande e Rihanna. Queste imitazioni sono quasi perfette, il che fa sì che chiunque possa cadere nella trappola di un messaggio o di una chiamata falsa che chiede denaro o dati personali.
Deepfake vocali e video: il nuovo standard dell'inganno digitale 🎭
La tecnologia alla base di queste truffe utilizza modelli di sintesi vocale come Tacotron o WaveNet, in grado di replicare timbri e intonazioni con pochi secondi di audio reale. A questo si aggiunge la generazione video con reti generative avversarie, che sincronizzano labbra e gesti facciali. I truffatori non hanno più bisogno di grandi server; elaborano queste falsificazioni nel cloud o persino su hardware domestico, rendendo la rilevazione una sfida tecnica costante.
Mia zia ha già mandato soldi a Rihanna su WhatsApp 😱
La cosa peggiore è che queste falsificazioni non si limitano più a un messaggio di testo scritto male. Ora ti arriva un video di Rihanna che ti chiede un prestito per il suo nuovo profumo, o Ariana Grande che si lamenta di aver perso la sua carta di credito. E, naturalmente, più di uno ci crede e si sente persino speciale. La prossima volta, se il tuo artista preferito ti chiede soldi, ricorda che probabilmente è in tour, non a chiedere 50 euro per la benzina.