Navigation auf uzh.ch
Die Schweizer Bevölkerung ist sehr skeptisch gegenüber dem Einsatz von Künstlicher Intelligenz (KI) im Journalismus. Das ergibt eine neue Studie des fög – Forschungszentrum Öffentlichkeit und Gesellschaft. Nur 23,8 % der Befragten würden Texte lesen, die vollständig von KI erstellt wurden. 53,6 % der Schweizer:innen würden Medienbeiträge lesen, die Medienschaffende mit Unterstützung von KI verfasst haben.
«Am grössten ist die Akzeptanz gegenüber dem Einsatz von KI für Recherchen, Datenanalysen oder Übersetzungen», sagt Studienleiter Daniel Vogler, Forschungsleiter und stellvertretender Direktor des fög. «Wenn aber Headlines oder ganze Texte von KI geschrieben würden, sehen das die Menschen kritisch.» Den Befragten sei wichtig, dass die Verantwortung für die Inhalte immer bei einem Menschen liege. «Viele Menschen denken beim Stichwort ‹KI im Journalismus› wohl an Textroboter, diese Vorstellung finden sie abschreckend», sagt Vogler weiter. Davon zeugt auch, dass nur 21,2 % der Befragten meinen, dass die von ihnen am stärksten genutzten Medien verantwortungsvoll mit KI umgehen. Dies, obwohl KI in den Schweizer Redaktionen heute fast ausschliesslich für unterstützende Funktionen eingesetzt wird – also nicht für die Produktion von ganzen Texten – und die Mehrheit der Medien heute über Richtlinien verfügt, die den Umgang mit KI regeln.
Die meisten Befragten erwarten von den Medienhäusern, dass der Einsatz von KI transparent deklariert wird. Diese Forderung nach Transparenz zielt nicht bloss darauf, ob KI einen Text (mit)geschrieben hat, sondern grundsätzlich auf alle Bereiche, in denen KI zur Anwendung kommt.
KI wird in den Schweizer Redaktionen heute fast ausschliesslich für unterstützende Funktionen eingesetzt, also nicht für die Produktion von ganzen Texten.
«Die Medien müssen erklären, wo und wie sie KI einsetzen», sagt Vogler. «Dazu reicht nicht ein Satz im Impressum. Medien sollten thematisieren, wie sie beim Einsatz von KI vorgehen, Beispiele zeigen und Einblick ‹ hinter die Kulissen› geben.»
Das machen Schweizer Medien nach Ansicht des Publikums offenbar noch nicht ausreichend. Nur 12,1 % der Befragten sind der Meinung, dass Schweizer Medien darüber berichten, wie sie KI konkret einsetzen und an welchen Richtlinien sie sich dabei orientieren. Den Lesenden könne auch vermittelt werden, dass durch den Einsatz von KI vielleicht bei Routineaufgaben Zeit gespart werden könne, die dafür in Analysen und Einordnung fliessen kann.
Die Krux für die Medienhäuser ist allerdings, dass die Schweizer:innen wenig Bereitschaft zeigen, für KI-generierte Inhalte das Portemonnaie zu öffnen: Nur 6,2 % der Befragten sind grundsätzlich bereit, für Texte zu bezahlen, die vollständig von KI generiert wurden. Dieser Wert ist im Vergleich zu einer Umfrage, die das fög vergangenes Jahr durchgeführt hat, sogar noch um 3,2 Prozentpunkte gesunken. Rund ein Viertel der Befragten (25,2 %) gibt an, für Inhalte bezahlen zu wollen, die mit Unterstützung von KI erstellt wurden – also für Inhalte, wie sie von vielen Schweizer Medien angeboten werden. Auch dieser Anteil ist rückläufig. Für Inhalte, die ohne KI erstellt wurden, ist die Zahlungsbereitschaft nach wie vor am höchsten.
Die fög-Studie erhob auch, bei welchen gesellschaftlichen Bereichen die Schweizer:innen den Einsatz von KI am kritischsten sehen. «Mich hat selbst überrascht, dass die Befragten den Journalismus als jenen Bereich einstuften, der die höchsten Risiken hat, noch vor Bereichen wie Militär und Gesundheit», sagt Vogler.
Wie erklärt sich Medienwissenschaftler Vogler die grosse Skepsis gegenüber der Künstlichen Intelligenz? «Wir befinden uns aktuell immer noch in einer Phase der Verunsicherung, wie man sie auch in der Vergangenheit sah, wenn neue Technologien auftauchten», sagt der fög-Forschungsleiter. «Offenbar ist diese Unsicherheit im Laufe des letzten Jahres auch nicht kleiner geworden.» Ein weiterer Punkt sei wohl, dass die Medien über KI häufig in negativen Zusammenhängen berichten würden und die Risiken betonten.
Wenn ein Fehler geschieht, weil KI eingesetzt wurde, sollte dies offen kommuniziert werden.
Neben Transparenz rät Vogler den Medien auch zu einer guten Fehlerkultur. «Wenn ein Fehler geschieht, weil KI eingesetzt wurde, sollte dies offen kommuniziert werden. So können die Menschen Vertrauen aufbauen dazu, dass die Medienhäuser verantwortungsvoll mit der neuen Technologie umgehen.»