假阿丽亚娜·格兰德与蕾哈娜:人工智能骗局蒙蔽众人

发布于 2026年05月04日 | 从西班牙语翻译

人工智能正以惊人的速度发展,但它的用途并不仅限于创作艺术或优化流程。网络安全专家警告称,利用人工智能克隆名人(如爱莉安娜·格兰德和蕾哈娜)声音和图像的诈骗案件正在增加。这些仿冒品几乎完美无缺,使得任何人都可能落入虚假信息或电话的陷阱,被要求提供金钱或个人信息。

一块分屏显示了两张由人工智能生成的高度逼真肖像:爱莉安娜·格兰德和蕾哈娜微笑着,上面叠加了一个红色警告图标。背景中,一部手机正在发出可疑通知。

语音和视频深度伪造:数字欺骗的新标准 🎭

这些诈骗背后的技术使用了如Tacotron或WaveNet等语音合成模型,它们能够仅凭几秒钟的真实音频就复制出音色和语调。此外,还结合了使用生成对抗网络生成的视频,能够同步嘴唇动作和面部表情。诈骗者不再需要大型服务器;他们可以在云端甚至家用硬件上处理这些伪造品,使得检测成为一项持续的技术挑战。

我姨妈已经通过WhatsApp给蕾哈娜转了钱 😱

最糟糕的是,这些伪造品不再局限于一封拼写错误的文字信息。现在,你可能会收到一段蕾哈娜的视频,请求你为她的新香水借钱,或者爱莉安娜·格兰德抱怨她的信用卡丢了。当然,不止一个人会相信,甚至还会感到自己很特别。下次,如果你最喜欢的艺术家向你要钱,请记住,他们很可能正在巡演,而不是为了汽油费要50欧元。