Der Saisonstart der Badi, eine Baustellen-Info oder die Personalsuche für ein politisches Amt: Solche typischen Gemeinde-Themen sind in den Zeitungen zuletzt seltener geworden. Denn die Ressourcen sind knapp, die Verlage sparen auf den Redaktionen und somit bei den Inhalten. Zuerst entfällt das, was weniger wichtig erscheint.
Als möglicher Retter dieser kleinen, aber kaum mehr verfügbaren News gilt einigen Verlagen die Künstliche Intelligenz (KI). Die Technologie hilft Journalist:innen ‒ auch bei WNTI ‒ schon heute bei der Recherche, der Datenanalyse oder dabei, fiese Schreibfehler aufzuspüren. Doch die Anwendungen können noch viel mehr. Der Verein Spatz zum Beispiel liest mit KI Webseiten von Gemeinden und Vereinen aus, formuliert daraus Nachrichten und versendet diese nach der Überprüfung durch eine Redaktor:in vor Ort in einem Newsletter. Bereits in 20 Regionen der Schweiz schickt das junge Unternehmen seine E-Mails.
Die Inhalte sind dabei klar deklariert: Nach jedem Text steht bei Spatz ein (ki). So sieht es der Schweizer Presserat vor, wenn die Inhalte mithilfe eines KI-Programms erstellt worden sind. Eine ähnliche Richtlinie gab sich Tamedia, der Verlag des «Landboten», des «Tages-Anzeigers» und einem guten Dutzend weiterer Zeitungstitel in der ganzen Schweiz.
Online nur wegen «bestehendem Template» gekennzeichnet
Doch nun scheint der Verlag gegen seine eigenen Regeln zu verstossen: Kürzlich erschien in verschiedenen Zeitungen des Verlags, auch im «Landboten», eine ganze Seite mit Meldungen, bei denen jegliche Deklaration fehlte. Online waren ausnahmslos alle dieser Meldungen noch mit dem Hinweis gekennzeichnet gewesen: «Dieser Artikel wurde mithilfe von Künstlicher Intelligenz erstellt und basiert im Original auf einer Gemeindemitteilung.»
Auf Anfrage beschreibt die Unternehmenskommunikation von Tamedia den Prozess: «KI erstellt einen Entwurf, der von Mitarbeitenden geprüft, überarbeitet und freigegeben wird. Es handelt sich somit um redaktionell verantwortete Beiträge, nicht um automatisch publizierte Inhalte.» Eine Kennzeichnung im Print sei somit nicht erforderlich. Online sei die Kennzeichnung auch nur deshalb sichtbar, weil man ein bestehendes Template für diese Art von Meldungen nutze. Redaktionsmitglieder äusserten sich auf Anfrage ‒ wohl nicht ganz freiwillig ‒ nicht zur Sache.
In den hauseigenen Richtlinien schreibt die KI-Verantwortliche von Tamedia, Nadia Kohler: «In wenigen, klar definierten Fällen erstellt KI auch kurze Meldungen automatisch – etwa bei sehr einfachen Texten, die auf Medienmitteilungen basieren. Auch hier arbeiten wir nicht ohne Kontrolle: Das System ist technisch begrenzt, wird von einem Menschen überwacht und regelmässig verbessert. Solche automatisch erstellten Inhalte sind immer klar als KI-unterstützt gekennzeichnet.» Die Unternehmenskommunikation meint auf Nachfrage ausdrücklich: «Nein, hier liegt kein Verstoss gegen unsere Richtlinien vor.»
Lesende wünschen sich Deklaration
Während die Deklarationspflicht von KI verlagsintern eine Frage der Auslegung zu sein scheint, ist das Verdikt der Leser:innen klar. Neun von zehn Personen in der Schweiz wünschen sich, dass KI-generierte Inhalte im Journalismus gekennzeichnet werden. Und acht von zehn wollen den Einsatz von KI sogar selbst dann ausgewiesen haben, wenn sie nur unterstützend, etwa in Form einer Rechtschreibprüfung zum Einsatz kommt. Das zeigt eine 2024 veröffentlichte Studie des Forschungszentrums für Öffentlichkeit und Gesellschaft (Fög) der Uni Zürich. Aus ihr geht auch hervor, warum die knapp 1300 Befragten eine Kennzeichnung wollen: In keinem Gesellschaftsbereich schätzen sie die Risiken des Einsatzes von KI höher ein als im Journalismus.