Extremismus im Netz: Studie untersucht erstmals umfassend rechtsextreme Akteure auf alternativen Plattformen
- Die von der Robert Bosch Stiftung geförderte Studie zeigt: Das rechtsextreme Ökosystem auf alternativen Plattformen kann zur Radikalisierung von Nutzern beitragen.
- Die Sperrung von Accounts rechtsextremer Gruppen auf großen Plattformen wie Facebook und YouTube schränkt die Verbreitung ihrer Inhalte erheblich ein.
- Die Studie empfiehlt: Zur Bekämpfung rechtsextremer Inhalte auf alternativen Plattformen müssen Maßnahmen auf deren Architektur und spezifische Dynamiken zugeschnitten sein.
Stuttgart, 10. Februar 2020. Die rechtsextremen Attentäter in Halle, Christchurch und Poway nutzten alternative Plattformen dazu, ihre Anschläge per Livestream ins Internet zu übertragen. Welche Bedeutung diese Plattformen für die Verbreitung von Rechtsextremismus haben und welche Gegenmaßnahmen wirksam sein könnten, zeigt jetzt erstmals eine von der Robert Bosch Stiftung GmbH geförderte Studie des Institute for Strategic Dialogue (ISD), die morgen in Berlin vorgestellt wird. Darin fordern die Forscher Politik, Zivilgesellschaft, Forschung und Tech-Firmen dazu auf, mehr gegen die Radikalisierung einzelner Nutzer und die Normalisierung rechtsextremer Ideologie zu unternehmen. Die Maßnahmen sollten dabei die technischen Kapazitäten und die Eigendynamik der Plattformen berücksichtigen und auf dem Schutz der Grundrechte beruhen. „Es ist wichtig zu verstehen, wie die alternativen Plattformen aufgebaut sind, wer sie betreibt und welche Dynamik sie haben, um Ansatzpunkte für einen geeigneten Umgang mit Rechtsextremismus im Internet zu finden“, sagt Sandra Breka, Geschäftsführerin der Robert Bosch Stiftung.
Zehntausende Nutzer instrumentalisieren Plattformen für ihre Zwecke
Für die Studie „Das Online-Ökosystem rechtsextremer Akteure“ hat das Forscherteam deutsche Communities auf zehn Plattformen systematisch untersucht, darunter die sozialen Netzwerke VK und Gab, die Gaming-App Discord, das Internetforum 4chan und den Messenger-Dienst Telegram. Die Forscher fanden dort rund 375 rechtsextreme und rechtspopulistische Kanäle und Communities. Die Gesamtzahl der Nutzer in diesen Gruppen schätzen die Forscher auf 15.000 bis 50.000. Die Studie zeigt, dass die Plattformen in der Regel nicht von Extremisten gegründet werden, sondern von Nutzern für ihre Zwecke instrumentalisiert werden. Über ein Viertel der Gruppen (27 Prozent) war durch die Gegnerschaft zu Muslimen, Einwanderung und Flüchtlinge gekennzeichnet, ein Viertel (24 Prozent) sprach sich offen für den Nationalsozialismus aus. Auf 4chan enthielten 56 Prozent aller Posts über Juden und das Judentum antisemitische Äußerungen.
Auch wenn der Großteil der analysierten Inhalte nicht zu Gewalt aufruft, sehen die Forscher darin eine gefährliche Inspiration: „Die Posts konzentrieren sich überproportional häufig auf die negativen Folgen der Immigration. Wie wir aus den Manifesten rechtsextremer Attentäter gelernt haben, können rechtsextreme Ideen wie die Verschwörungstheorie des „Großen Austauschs“ extremistische Gewalt und Terrorismus inspirieren, ohne aktiv zur Gewalt aufzurufen“, sagt die Extremismusforscherin Julia Ebner vom ISD, einem unabhängigen Forschungsinstitut mit Sitz in London.
NetzDG auf alternative Plattformen nicht übertragbar – Forscher empfehlen passende Maßnahmen für Plattformbetreiber
Das Netzwerkdurchsetzungsgesetz (NetzDG) beschränkt sich auf die Entfernung illegaler Inhalte und ist daher nicht geeignet, auf die häufig legalen, aber extremistischen Aktivitäten auf alternativen Plattformen zu reagieren.
- Da den Betreibern alternativer Plattformen häufig die Ressourcen fehlen, Inhalte umfassend zu moderieren, empfiehlt die Studie die Zusammenarbeit mit Mainstream-Plattformen, um von deren technischen Möglichkeiten zu profitieren – zum Beispiel eine Datenbank mit digitalen Fingerabdrücken terroristischer Inhalte, mit der ein erneutes Hochladen automatisch verhindert werden kann.
- Die Studie zeigt zudem, dass die Sperrung von Accounts rechtsextremer Gruppen und Influencer wirksam ist, um deren Reichweite erheblich einzuschränken. Dabei fordern die Forscher allerdings jeweils eine nachvollziehbare Begründung für die Sperrung.
- Die Studie spricht sich zudem für die Entwicklung von Frühwarnsystemen aus, etwa in Form von Algorithmen zur Spracherkennung, um konkrete Bedrohungen zu erfassen.
- Weiterhin sollten Bildungsmaßnahmen wie die Schulung von Jugendarbeitern, zivilgesellschaftlichen Akteuren, Eltern und Lehrern ausgeweitet werden, damit diese über die Radikalisierungsgefahren in rechtsextremen Communities aufklären können.
Lesen Sie die Studie online
Über das Institute for Strategic Dialogue
ISD Global hat es sich zum Ziel gesetzt, die verschiedenen Formen von Polarisierung, Hass und Extremismus zu verstehen und wirksam zu bekämpfen. ISD Global verbindet ethnographische Forschung, Expertise in Ideologien und Religionen mit innovativen digitalen Analysen von Extremismus, Hass und Desinformationskampagnen. Aufbauend auf den Erkenntnissen entwickelt ISD Global Projekte, mit denen politisch Verantwortlichen, jungen Menschen und lokalen Influencern geholfen wird, die Demokratie, ihre Kommunen oder sich selbst vor diesen Bedrohungen zu schützen. Sie beraten weltweit Regierungen, Regionen, Städte und Technologiekonzerne bei der Entwicklung adäquater Strategien und bieten praktische Trainingsmodule zur nachhaltigen Bekämpfung extremistischer Ideologien und ihrer Auswirkungen.