Von Künstlicher Intelligenz (KI) generierte Schlagzeilen stossen bei Nachrichtenkonsumenten auf nur wenig Interesse. Zu diesem Schluss kommen die Wissenschaftler Sacha Altay und Fabrizio Gilardi von der Universität Zürich. Experimente mit rund 5'000 Nachrichtenkonsumenten zeigen einen immensen Vertrauensverlust. Details sind in "PNAS Nexus" nachzulesen.
Konkret wurden für ihre Studie zwei vorregistrierte Online-Experimente mit 4.976 Teilnehmern aus den USA und Grossbritannien durchgeführt. Auf diese Weise haben die Forscher die Auswirkungen der Kennzeichnung von Schlagzeilen als "KI-generiert" untersucht. Die Teilnehmer bewerteten 16 Schlagzeilen, die entweder wahr, falsch, von KI oder von Menschen generiert waren.
In der ersten Studie wurden die Teilnehmer zufällig einer der folgenden Bedingungen zugeordnet: Keine Schlagzeile war als KI-generiert gekennzeichnet; KI-generierte Schlagzeilen waren als KI gekennzeichnet; menschlich generierte Schlagzeilen waren als KI gekennzeichnet; und falsche Schlagzeilen waren als falsch gekennzeichnet.
KI-generierte Schlagzeilen haben die Probanden weniger gut einschätzen können. Auch waren sie weniger bereit, sie zu teilen - unabhängig davon, ob die Schlagzeilen wahr oder falsch waren und ob sie von Menschen oder KI erstellt wurden. Die Kennzeichnung als KI-generiert hatte einen dreimal geringeren Effekt als die Kennzeichnung von Schlagzeilen als falsch.
Die abneigende Haltung der Teilnehmer beruht laut den Wissenschaftlern auf der Erwartung, dass Schlagzeilen, die als KI-generiert gekennzeichnet sind, komplett von KI ohne menschliche Aufsicht erstellt wurden. Den Autoren zufolge sollte, um maximale Wirkung zu erzielen, falscher KI-generierter Inhalt als falsch und nicht nur als KI-generiert gekennzeichnet werden.