Falsche Ariana Grande und Rihanna: der KI-Betrug, der alle täuscht

04. May 2026 Publicado | Traducido del español

Die künstliche Intelligenz macht rasante Fortschritte, aber nicht nur, um Kunst zu schaffen oder Prozesse zu verbessern. Cybersicherheitsexperten warnen vor einer Zunahme von Betrugsfällen, bei denen Stimmen und Bilder von Prominenten wie Ariana Grande und Rihanna geklont werden. Diese Nachahmungen sind nahezu perfekt, sodass jeder auf eine falsche Nachricht oder einen falschen Anruf hereinfallen kann, der nach Geld oder persönlichen Daten verlangt.

Ein geteilter Bildschirm zeigt zwei hyperrealistische KI-Porträts: Ariana Grande und Rihanna lächeln, mit einem überlagerten roten Warnsymbol. Im Hintergrund sendet ein Telefon eine verdächtige Benachrichtigung.

Sprach- und Video-Deepfakes: der neue Standard digitaler Täuschung 🎭

Die Technologie hinter diesen Betrugsmaschen nutzt Sprachsynthesemodelle wie Tacotron oder WaveNet, die in der Lage sind, Klangfarben und Tonlagen mit nur wenigen Sekunden echter Audioaufnahme zu replizieren. Hinzu kommt die Videogenerierung mit generativen gegnerischen Netzwerken, die Lippen- und Gesichtsbewegungen synchronisieren. Die Betrüger benötigen keine großen Server mehr; sie verarbeiten diese Fälschungen in der Cloud oder sogar auf heimischer Hardware, was die Erkennung zu einer ständigen technischen Herausforderung macht.

Meine Tante hat Rihanna bereits Geld über WhatsApp geschickt 😱

Das Schlimmste ist, dass diese Fälschungen nicht mehr auf eine schlecht geschriebene Textnachricht beschränkt sind. Jetzt bekommst du ein Video von Rihanna, die dich um einen Kredit für ihr neues Parfüm bittet, oder von Ariana Grande, die sich beschwert, dass sie ihre Kreditkarte verloren hat. Und klar, so mancher glaubt es und fühlt sich sogar besonders. Wenn dein Lieblingskünstler dich das nächste Mal um Geld bittet, denk daran, dass er wahrscheinlich auf Tour ist und nicht um 50 Euro für Benzin bittet.