
Die wichtigsten KI-Chatbots erkennen keine mit Sora erstellten Videos
Ein kürzlicher Bericht von NewsGuard deckt einen großen Mangel bei den bekanntesten Künstlichen Intelligenz-Assistenten auf: Sie erkennen nicht, wenn ein Video vom Generator Sora von OpenAI produziert wurde. Sogar ChatGPT, das von demselben Unternehmen erstellt wurde, scheitert an dieser Aufgabe. Die Experten haben mehrere Modelle mit authentischem und gefälschtem visuellem Material getestet, und die Ergebnisse zeigen eine bemerkenswerte Einschränkung bei der Unterscheidung der Herkunft des Inhalts. 🤖
Die Bewertungen zeigen eine Lücke im Erkennen
Die Forscher haben den Chatbots zehn Clips vorgelegt, die Hälfte echt und die Hälfte von Sora erstellt, und sie gebeten, deren Herkunft zu bestimmen. Keines der getesteten Systeme, die Versionen von ChatGPT, Google Gemini, Microsoft Copilot, Meta AI und Grok umfassen, konnte mehr als achtzig Prozent Trefferquote erreichen. Mehrmals weigerten sich die Modelle, das Material zu analysieren, oder gaben generische Antworten darüber, wie man synthetischen Inhalt identifiziert, anstatt dieses Wissen praktisch anzuwenden.
Getestete Modelle und ihre Leistung:- ChatGPT (OpenAI): Erkannte keine Videos, die von seinem eigenen Mutterunternehmen erstellt wurden.
- Google Gemini und Microsoft Copilot: Zeigten niedrige Trefferquoten und ausweichende Antworten.
- Meta AI und Grok: Weigerten sich häufig zu analysieren oder boten unanwendbare theoretische Leitfäden an.
Generelle Sprachmodelle übertragen ihr Wissen zu dieser spezifischen Aufgabe der Videoüberprüfung nicht effektiv.
Das Risiko für Online-Informationen ist klar
Diese Unfähigkeit, die Authentizität eines Videos zu überprüfen, stellt eine unmittelbare Herausforderung dar, um Desinformation im Internet zu bekämpfen. Die Tools, auf die viele vertrauen, um Inhalte zu prüfen, sind nicht bereit für das hyperrealistische Material, das Sora produzieren kann. Das Szenario unterstreicht die Dringlichkeit, robustere und spezialisierte Erkennungsmethoden zu entwickeln. 🚨
Praktische Implikationen dieser Einschränkung:- Die Nutzer können sich nicht auf diese Assistenten verlassen, um falschen KI-generierten Inhalt zu filtern.
- Es öffnet sich ein Fenster für die einfachere Erstellung und Verbreitung von täuschendem Material.
- Die Theorie über Wasserzeichen oder Anomalien in Einzelbildern, die die Chatbots erklären, findet in der Praxis keine Anwendung.
Ein Paradoxon der modernen Künstlichen Intelligenz
Es ist paradox, dass die künstliche Intelligenz, die oft als Lösung für zeitgenössische Probleme beworben wird, ihre eigene fortschrittlichste Kreation nicht identifizieren kann. Die Chatbots liefern ausführliche Erklärungen zur Erkennung, scheitern aber letztendlich bei der praktischen Anwendung. Diese Erkenntnis unterstreicht, dass ein anderer, spezifischerer Ansatz benötigt wird, um Tools zu entwickeln, die die Integrität visueller Online-Informationen wirklich schützen können.