Überall gibt es Leute, die einen manipulieren wollen. Das nachfolgende Video habe ich über Telegram erhalten. Aber mir kam gleich etwas komisch vor. Haut sich hier selber jemand in die Pfanne? Und richtig: Es gibt es auf YouTube ein Interview im Welt-TV Kanal, wo der BioNTech-Chef Sahin mit der gleichen Kameraeinstellung interviewt wird – mit allerdings völlig anderen Aussagen. Offenbar ist die Tonspur das Telegram-Videos ein Fake.
Hier zunächst das gefakte Video aus Telegram:
An der Tonspur fällt nicht nur auf, dass Lippensynchronizität nicht wirklich vorhanden ist, sondern auch ein leichter Flanging-Effekt. Er entsteht zum Beispiel, wenn eine Stimme mit niedriger Bitrate übertragen wird, wie etwa bei einer schlechten Mobilfunkverbindung oder bei Video über Zoom. Eahrscheinlich ist ein KI-Online Tool mit minderer Ausgabequalität verwendet worden, denn die Tonqualität des Originalinterviews ist besser. Für solche Manipulationen gibt es inzwischen reichlich Software.
KI-Sprachsimulator-Tools
Man kann also mit einiger Überzeugungskraft, die sich in Zukunft noch steigern dürfte, auf den ersten Blick authentisch aussehende Videos mit vollkommen falschen Interviewaussagen erzeugen. Dazu muss man kein Spezialist sein oder über teure Tools verfügen.
Da in jeder Ecke des Internets Leute unterwegs sind, die einen manipulieren wollen, kann man es sich heutzutage nicht mehr leisten, seinen kritischen Verstand herunterzudimmen. Auch wenn es sich hier wohl eher um Clickbait handelt.
Das gilt für alle Bereiche, und selbstverständlich auch für Mainstreammedien. Solche plumpen Fälschungen will ich ihnen allerdings nicht unterstellen – die haben bessere Methoden der Manipulation.