Der Einsatz von Künstlicher Intelligenz im Journalismus braucht nach Einschätzung des ARD-Digitalexperten Dennis Horn ein Vier-Augen-Prinzip.
Berlin – Der Einsatz von Künstlicher Intelligenz im Journalismus braucht nach Einschätzung des ARD-Digitalexperten Dennis Horn ein Vier-Augen-Prinzip. Diese Überprüfung sei wie beim menschengemachten Journalismus notwendig, sagte Horn, Mitgründer des WDR Innovation Hub, am Montag auf der Digitalmesse “Re:publica 23” in Berlin. Er bezog sich dabei auf einen Test eines KI-Sprachsystems für automatisch generierte Fußball-Spielberichte der ARD-“Sportschau”. Das WDR Innovation Hub ist ein interdisziplinäres Team, das für die öffentlich-rechtliche Rundfunkanstalt Zukunftsfragen in den Blick nimmt.
“Bei rein maschinengesteuerten Texten ist die Faktensicherheit nicht gegeben”, warnte Horn im “Perspective Lab” der ARD. So hätten sich zu Beginn des Projekts Namen von Spielern, die nie auf dem Platz waren, und Szenen, die es im Match nicht gegeben hat, in den Texten gefunden. Man habe sich daher schnell vom reinen KI-Sprachmodell GPT3 gelöst und ein eigenes KI-Tool gebaut, “bei dem wir uns sicher sein können, dass es beherrschbar ist”, erklärte der Experte.
Dabei fließen in die Berichte sowohl in Echtzeit Spieldaten aus der Datenbank der Deutschen Fußball Liga (DFL) wie Inhalte des von Menschen verfassten “Sportschau”-Livetickers ein. “Wir haben diesen zurückgenommenen Ansatz von KI bewusst gewählt, damit das aus journalistischer Sicht handhabbar ist”, so Horn. Dieser Prototyp sei beim WDR und der “Sportschau” aber nicht im regulären Einsatz. Es gebe ihn bislang auch nur für Texte, nicht für Videobeiträge. “Wir wollen die Technik vielmehr auch in anderen Redaktionen demonstrieren und die Diskussion anregen.”
Parallel habe der WDR das Fraunhofer Institut mit einer Risikoprüfung beauftragt, bei der auch Fußballfans und Journalisten befragt worden seien. Grundsätzlich hätten die Nutzer den Einsatz von KI befürwortet, sagte Horn: “Die Fußballfans haben in keinem einzigem Fall bemerkt, dass die Testbeiträge KI-generiert waren und haben das auch nach der ‘Auflösung’ sehr wohlwollend aufgenommen.” Die befragten Journalistinnen und Journalisten hätten dagegen auf die Gefahr des “Automation Bias” hingewiesen, also auf die Gefahr eines zu großen Vertrauens in automatisiert erstellte Inhalte.