L'intelligence artificielle progresse à pas de géant, mais pas seulement pour créer de l'art ou améliorer des processus. Des experts en cybersécurité alertent sur une augmentation des arnaques où les voix et les images de célébrités comme Ariana Grande et Rihanna sont clonées. Ces imitations sont presque parfaites, ce qui fait que n'importe qui peut tomber dans le piège d'un message ou d'un appel frauduleux demandant de l'argent ou des données personnelles.
Deepfakes vocaux et vidéo : la nouvelle norme de la tromperie numérique 🎭
La technologie derrière ces arnaques utilise des modèles de synthèse vocale comme Tacotron ou WaveNet, capables de reproduire des timbres et des intonations avec seulement quelques secondes d'audio réel. À cela s'ajoute la génération vidéo avec des réseaux antagonistes génératifs, qui synchronisent les lèvres et les expressions faciales. Les fraudeurs n'ont plus besoin de grands serveurs ; ils traitent ces falsifications dans le cloud ou même sur du matériel domestique, rendant la détection un défi technique constant.
Ma tante a déjà envoyé de l'argent à Rihanna sur WhatsApp 😱
Le pire dans tout ça, c'est que ces falsifications ne se limitent plus à un message texte mal écrit. Maintenant, vous recevez une vidéo de Rihanna vous demandant un prêt pour son nouveau parfum, ou d'Ariana Grande se plaignant d'avoir perdu sa carte de crédit. Et bien sûr, plus d'un y croit et se sent même spécial. La prochaine fois, si votre artiste préféré vous demande de l'argent, rappelez-vous qu'il est probablement en tournée, pas en train de demander 50 euros pour l'essence.