Navigation auf uzh.ch
Vermutlich haben Sie es auch schon erlebt: Sie lesen die Kommentare zu einem Online-Artikel und stossen auf einen höchst beleidigenden Leserbeitrag: rassistisch vielleicht, antisemitisch oder sonst eine bestimmte Gruppe herabwürdigend. Womöglich schütteln Sie den Kopf, vielleicht äussern Sie mit einem Daumen nach unten Ihr Missfallen. Die Wahrscheinlichkeit ist jedoch gross, dass Sie einfach verärgert weiterscrollen – vielleicht in der Hoffnung, jemand möge den beleidigenden Inhalt löschen.
Hasskommentare sind mehr als bloss ein Ärgernis. Sie vergiften die gesellschaftliche Debatte und haben darum das Potenzial, eine Gesellschaft zu destabilisieren. «Sie sind eine ernsthafte Gefahr für die Demokratie», sagt Karsten Donnay, Assistenzprofessor am Institut für Politikwissenschaft der Universität Zürich. Gerade wenn Konflikte oder Kriege ausbrechen wie in Israel oder der Ukraine, lädt sich der Diskurs in sozialen Medien emotional auf. Beleidigungen, Hass und Fehlinformationen sind alltäglich und Politiker:innen feuern zusätzlich an, statt zu besänftigen. Eine solche Dynamik ist regelmässig rund um geopolitische Grossereignisse wie etwa die US-Präsidentschaftswahl zu beobachten.
Viele Betreiber von Online-Plattformen reagieren auf Hate Speech, indem sie die Kommentare oder gar die Nutzerkonten löschen. Karsten Donnay ist jedoch überzeugt, dass solches «deplatforming» der falsche Weg ist. Denn Nutzer würden ihre Inhalte einfach woanders verbreiten, wenn sie gesperrt werden – statt auf X beispielsweise auf Donald Trumps «Truth Social». «Es ist keine gute Idee, Leute aus der Unterhaltung auszuschliessen», sagt Donnay. Kommt dazu, dass grosse Plattformen wie Facebook nicht in der Lage sind, mehr als etwa fünf Prozent der Hasskommentare zu entfernen.
Es gibt aber Alternativen zum Löschen von Inhalten: Statt sich zu ärgern und weiterzuscrollen, könnten Sie auch auf Hasskommentare reagieren. Ihr Ziel wird es dann sein, Hassredner:innen dazu zu bringen, über ihr Verhalten nachzudenken, sodass sie sich in Zukunft mässigen. Solche gezielten Gegenreden («counterspeech») helfen auch, soziale Normen im Internet zu etablieren. Denn wie im realen Leben sollten auch online gewisse Benimmregeln gelten, die zwar nirgends niedergeschrieben sind, die wir für ein friedliches Zusammenleben aber intuitiv befolgen. Es würde wohl kaum jemandem in den Sinn kommen, bei einem Abendessen andere wegen ihres Alters, ihrer Herkunft oder ihrer sexuellen Vorlieben zu beleidigen. In Online-Diskussionen hingegen gehören solche Beleidigungen fast schon zum alltäglichen Ton.
Dass die Strategie der Gegenrede tatsächlich funktioniert, haben Forschende von UZH und ETH in mehreren gemeinsamen Studien nachweisen können. Sie zeigen, dass Hassredner:innen in Kommentarspalten und sozialen Medien bei gezielter Gegenrede signifikant weniger Hass posten oder ihre Beiträge gar löschen. Voraussetzung dafür ist, dass man die richtigen Worte wählt (siehe Kasten Counterspeach). Von Hassrede sprechen die Forschenden dann, wenn die erniedrigenden und beleidigenden Botschaften gegen eine bestimmte Gruppe gerichtet sind. Nicht unter Hate Speech fallen Beleidigungen gegenüber einzelnen Personen.
Der Effekt, den Gegenrede erzielen kann, ist jedoch vergleichsweise klein. Nur einige wenige von Hunderten von Hassbotschaften wurden nach gezielter Gegenrede jeweils gelöscht. Der Grund dafür ist wohl, dass nur ein kleiner Teil der Verfasser:innen durch Gegenrede zum Nachdenken gebracht werden kann. Bei einem Grossteil der Hassredner:innen handelt es sich vermutlich um so genannte Trolle, die ihre Ressentiments entweder aus Spass, für Geld oder mit politischen Absichten äussern. Bekannt ist das Beispiel russischer Troll-Fabriken, denen es gelang, die letzten US-Präsidentschaftswahlen zu beeinflussen.
Auch Donnay und seine Kollegen stiessen in ihren Untersuchungen auf Trolle. Dass solche verbalen Brandstifter:innen zu einem grossen Teil für Hate Speech verantwortlich sind, ist nicht unwahrscheinlich. «Wir wissen aus unseren Studien, dass sehr wenige Leute – konkret rund 5 Prozent der Verfasser:innen von Hate Speech – für weit über 80 Prozent der Hassnachrichten verantwortlich sind», so Donnay.
Trotz ihrer eher geringen Wirkung sollte man den Effekt gezielter Gegenrede nicht unterschätzen. Denn schliesslich gehe es nicht nur um die Läuterung der Hassredner:innen selbst, sagt Politologe Karsten Donnay. «Man muss auch an die vielen Menschen denken, die in den Kommentarspalten mitlesen. Auch für sie wird durch Gegenrede deutlich gemacht, was geht und was nicht.» Solche Sekundäreffekte könnten mithelfen, die sozialen Normen für ein positiveres Miteinander zu etablieren.
Neben Gegenrede braucht es auch Regulierungen, um die Verbreitung von Hass und Desinformation im Internet zu stoppen. «Dass Hass und Desinformation ein Business sind, hat etwas mit den Strukturen zu tun», sagt Donnay. Diese gilt es zu verändern. Vorbilder könnten Foren und Plattformen sein, die bereits heute eine gesittete Diskussionskultur pflegen. Das gelingt, weil einzelne Nutzer:innen die Debatten in der Community moderieren. Dafür werden sie mit Titeln als besonders erfahrene Community-Mitglieder belohnt oder ihre Beiträge werden durch Algorithmen sichtbarer gemacht.
Wir wissen aus unseren Studien, dass rund 5 Prozent der Verfasser:innen von Hate Speech für weit über 80 Prozent der Hassnachrichten verantwortlich sind.
Um soziale Medien von Hass und Desinformation zu befreien, schwebt Donnay auch eine ethische Selbstregulierungsinstanz vor, wie es sie für die klassischen Medien in Form des Presserats bereits gibt. Ausserdem sollte man auf Minimalstandards pochen. Beispielsweise verzichtet die neue Social-Media-Plattform Bluesky auf die Direktnachrichten-Funktion, über die etwa bei Konkurrent X viel Hass verbreitet wird. Wer einen Account bei Bluesky eröffnen möchte, braucht zudem eine Einladung, was es für Trolle schwerer macht. Die sind bis jetzt kaum auf der Plattform präsent.
Noch unsicher ist, wie sich die zunehmende Verbreitung von KI-Technologien auf Hasskommentare im Internet auswirken wird. Auf der einen Seite könnte sie zunehmen, weil es dank Tools wie ChatGPT einfacher wird, Hass-Posts zu verfassen und zu verbreiten. Auf der anderen Seite hilft KI auch, Hasskommentare im Netz ausfindig zu machen und zu bekämpfen. Dies konnte Karsten Donnay in einem gemeinsamen Forschungsprojekt mit seinem UZH-Kollegen Fabrizio Gilardi und Dominik Hangartner von der ETH nachweisen. Unter der Leitung der Postdoktorandin Ana Kotarcic entwickelte das Team den ersten, auf «deep learning» basierenden Algorithmus, der Hasskommentare erkennt, die schweizerdeutsche Begriffe enthalten. «Bot Dog», so heisst der Algorithmus, beherrscht auch Französisch.
Tests zeigten, dass der Algorithmus Hass schon jetzt annähernd so gut erkennt wie Menschen. Und vor allem macht er das schneller und damit auch günstiger. Momentan arbeiten die Forschenden an weiteren Verbesserungen beim Erkennen und im Umgang mit Hassrede. Mittlerweile ist das Projekt in eine neue gemeinnützige Stiftung übergegangen, die Public Discourse Foundation. Sie hat zum Ziel, den öffentlichen Diskurs im Internet zu erforschen und zu stärken.
Hoffnung macht Karsten Donnay das Aufkommen der künstlichen Intelligenz aber auch aus einem anderen Grund. Sie hat die Wahrnehmung geschärft: «Nun ist allen klar geworden, dass wir uns endlich damit beschäftigen müssen, mit welchem Internet wir eigentlich leben wollen. Es kommt nicht gut, wenn wir die Entwicklung nicht aktiv steuern.»