„Dieses Pack gehört gesteinigt und an die Wand gestellt!“ Hasskommentare wie dieser auf sozialen Netzwerken wie Facebook, Twitter und Co. sind keine Seltenheit mehr. Vor allem Rechtspopulisten versuchen damit, andere Nutzer und die Medien zu beeinflussen. Da stellt sich die Frage, wie Gesellschaft und Politik mit diesem Phänomen umgehen sollten.
Wer auf Facebook unterwegs ist, stößt meist schnell auf hasserfüllte Kommentare in Diskussionen. Sie tauchen überall auf, oft übertrumpfen sich die Nutzer gegenseitig und beschimpfen jeden, der eine andere Meinung hat. Doch ist das wirklich die Mehrheit? Eine Datenanalyse des IT-Experten Philip Kreißel in Kooperation mit dem Institute for Strategic Dialogue in London zeigt: bei Weitem nicht.
Nur fünf Prozent der Accounts waren im Januar für 50 Prozent der Likes bei Hasskommentaren verantwortlich, eine lautstarke Minderheit. Oft agieren diese Profile gemeinsam und sind vor allem deutlich aktiver als der „normale“ Nutzer, allerdings nur bei Diskussionen, in denen solche Hasskommentare auffallen. Mit regelrechten Kampagnen gefälschter Profile versuchen rechtsextreme Kreise, eine gesellschaftliche Mehrheit zu simulieren. „Ihre Strategie ist, die große Masse zu beeinflussen, indem sie Influencer anzapfen“, erklärt Gerald Hensel, erster Vorsitzender des Vereins Fearless Democracy mit Sitz in Hamburg. Wenn sich zu etwas eine große Diskussion entspinnt, können die Verursacher fast sichergehen, dass auch die Medien bald auf das Thema anspringen. „Hass im Netz ist zu einem organisierten Kampfmittel geworden.“
Fearless Democracy, eine Vereinigung von Kommunikations- und Digitalexperten, versucht, gegen diese Spaltung der Gesellschaft anzugehen – aus eigener Erfahrung. Als Hensel privat unter dem Thema „Kein Geld für Rechts“ recherchiert, ob große Marken wissen, wie oft sie auf rechten Internetseiten Werbung schalten, bekommt er die ganze Wut dieser Szene zu spüren: Netzterror, Morddrohungen, sogar der Aufruf, ihn auszuschalten – inklusive Adressnennung –, gehören plötzlich zum Alltag. Das Problem: Der Marketingberater merkt, dass Polizei und Staatsschutz nicht auf die digitale Welt vorbereitet sind. Dieses Erlebnis ist der Auslöser für die Gründung des Vereins.
Die Gesetzgebung stellt sich diesem Thema durchaus: Hasskommentare können angezeigt werden und fallen unter das Strafrecht. Je nach Formulierung sind sie Beleidigung, üble Nachrede, Volksverhetzung oder öffentliche Aufforderung zu Straftaten. Geldbußen und Gefängnis drohen. Zum 1. Januar ist außerdem endgültig das Netzwerkdurchsetzungsgesetz, kurz NetzDG, in Kraft getreten. Dieses verpflichtet soziale Netzwerke, Hasseinträge innerhalb von 24 Stunden, in schwierigen Fällen innerhalb einer Woche, zu löschen.
Ein Gesetz ist keine Lösung
Doch das Problem ist zu vielschichtig, als dass es durch ein Gesetz gelöst werden kann, meint Hensel. „Das Internet ist ein dezentraler Ort, der sich Nischen sucht und immer einen Weg findet.“ Das sei aber vielen Ebenen nicht bewusst. Teilweise sei er schockiert vom digitalen Wissensstand öffentlicher Institutionen. „Es wäre schon ein großer Schritt, bei den Entscheidungsträgern ein Bewusstsein für das Problem zu schaffen.“ Das Allheilmittel „mehr digitale Bildung in den Schulen“ zieht für ihn aber nur bedingt. „Wir brauchen eine Bildungsoffensive Ü40, nicht U40.“
Auffallend oft tauchen diese Hassschleifen in unmoderierten Diskussionen auf. Hensel rät den Medien deswegen dringend, ihre Facebookauftritte moderierend zu begleiten. Doch wie reagieren, wenn einen selbst Hasstrolle auf dem Kieker haben oder man deren Ausbreitung in einer Diskussion bemerkt? Nur ignorieren geht nicht, findet Hensel. Er verweist da lieber auf die Gruppe #Ichbinhier, die das Ziel verfolgt, dass jeder an Diskussionen im Netz teilhaben kann, ohne beleidigt zu werden. Die Teilnehmer setzen darauf, mit Fakten zu argumentieren, nicht persönlich oder parteipolitisch zu werden. Hensel ist sich sicher: „Genauso wie der Hass kann auch gutes Kommentieren ansteckend werden und sich ausbreiten.“
Stefanie Pfäffle