Die ARD-Tagesschau warnt davor, auf gefälschte Audio-Dateien hereinzufallen, die zurzeit im Netz und auf Demonstrationen kursieren.
Hamburg – Die ARD-Tagesschau warnt davor, auf gefälschte Audio-Dateien hereinzufallen, die zurzeit im Netz und auf Demonstrationen kursieren. Diese seien mit Hilfe von Künstlicher Intelligenz (KI) gefälscht worden und erweckten den Eindruck, die Redaktion entschuldige sich für Lügen in der Berichterstattung. Das teilte die ARD am Montag mit.
In einer der falschen Dateien heiße es zum Beispiel: „Guten Abend, meine Damen und Herren. Ich begrüße Sie zur Tagesschau. Heute möchten wir uns bei Ihnen entschuldigen. Seit über drei Jahren lügen wir Ihnen dreist ins Gesicht.“ Nach der Erkennungsmelodie der Nachrichtensendung seien die Stimmen von Tagesschau-Sprecherin Susanne Daubner oder von -Sprecher Jens Riewa zu hören.
Insgesamt kursierten drei Audio-Dateien mit angeblichen Entschuldigungen für „bewusste Manipulation“ und „Lügen“ in der Berichterstattung. Thematisch gehe es um den Krieg in der Ukraine, um Demonstrationen und die Corona-Pandemie. So habe die Tagesschau etwa gelogen, als sie „anständige Bürger aus der Mitte der Gesellschaft als Rechtsextreme, Reichsbürger oder Corona-Leugner denunziert“ habe. Außerdem lüge man zum Krieg in der Ukraine, „um allein Putin die Schuld an der Eskalation in die Schuhe schieben zu können“ und habe wider besseres Wissen Lügen über Covid-19-Impfungen verbreitet.
In allen drei Audio-Dateien heißt es laut ARD: „Für all diese einseitige Berichterstattung und bewusste Manipulation, insbesondere für die Denunzierung unserer Mitmenschen, müssen wir uns ausdrücklich im Namen des öffentlich-rechtlichen Rundfunks entschuldigen.“
Marcus Bornheim, Chefredakteur von ARD-aktuell, erklärte dazu, die gezielten Desinformationen mit den darin enthaltenen Positionen seien „geeignet, die freiheitlich-demokratische Grundordnung zu beschädigen“. Zum Glück könne man aber die KI-generierten Dateien relativ einfach als Fake-News entlarven: „Die Stimmen … klingen mechanisch, einige Betonungen der Wörter sind falsch und die Sprachmelodie unterscheidet sich von den echten Sprechern.“
So einfach wie bei diesen Beispielen sei es jedoch häufig nicht mehr, echte von falschen Audio-Dateien zu unterscheiden, warnte Andreas Dengel vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Daher müssten Menschen vor allem die Plausibilität des Inhalts überprüfen. „Dass ein Nachrichtensender solche Audios veröffentlicht, ist sehr unrealistisch.“ Allerdings hänge es auch stark davon ab, wer solche Fake-News zu hören bekomme: „Je besser eine Nachricht ins bestehende Weltbild von Menschen passt, desto eher wird sie auch geglaubt.“