Deepfakes im Jahr zweitausendsechsundzwanzig: Wenn Sehen nicht mehr Glauben ist

10. May 2026 Veröffentlicht | Aus dem Spanischen übersetzt

Deepfakes sind keine Science-Fiction mehr, sondern längst alltägliche Realität. Mit Werkzeugen wie Kling 3.0 oder Veo 3 kann jeder in Minuten ein gefälschtes Video erstellen. Künstliche Intelligenz ersetzt Gesichter, klont Stimmen und erschafft fiktive Szenarien mit einer Realitätstreue, die das menschliche Auge täuscht. Diese Manipulationen durch bloße Beobachtung zu erkennen, ist nicht mehr machbar; die einzig solide Verteidigung ist die Rückverfolgung des Ursprungs des Inhalts.

Ein verpixeltes menschliches Auge zerfällt vor einem Bildschirm, der KI-generierte Gesichter zeigt, mit dem Motto 'Sehen ist nicht mehr Glauben' in digitaler Typografie überlagert.

Wie generative gegnerische Netzwerke funktionieren 🤖

Diese Fälschungen basieren auf generativen gegnerischen Netzwerken, bei denen zwei Modelle konkurrieren, um die Qualität des Ergebnisses zu verbessern. Eines erzeugt den falschen Inhalt, während das andere versucht, ihn zu erkennen; nach tausenden von Iterationen wird die Fälschung ununterscheidbar. Kling 3.0 verwendet fortschrittliche Diffusionsmodelle zur Echtzeit-Videoverarbeitung, während Veo 3 die Lippensynchronisation und Lichtkohärenz optimiert. Das Ergebnis ist ein so ausgefeiltes Produkt, dass selbst automatische Erkennungssysteme häufig versagen.

Der Cousin, der dir schon einen Deepfake geschickt hat 😅

Es ist sehr wahrscheinlich, dass dein technikbegeisterter Verwandter bereits einen Deepfake in der WhatsApp-Gruppe geteilt hat. Ja, dieses Video des tanzenden Politikers war nicht echt. Das Schlimmste ist, dass es jetzt sogar deine Tante weiß, aber es ist ihr egal, weil sie es lustig findet. In der Zwischenzeit empfehlen Experten, Quellen zu überprüfen und nicht einmal den eigenen Augen zu trauen. Also, wenn dein Chef dich per Videoanruf um eine Gehaltserhöhung bittet, ruf lieber telefonisch an.