Zu den Kommentaren springen

„Eine Bombe, und alles ist wieder in Ordnung“: Eine Analyse von Hasskommentaren auf den Facebook-Seiten reichweitenstarker deutscher Medien

von Prof. Dr. Thomas Hestermann, Prof. Dr. Elisa Hoven und Prof. Dr. Michael Autenrieth

Beitrag als PDF Version 

Abstract
Beleidigende und bedrohliche Online-Kommentare verletzen die Angegriffenen und vergiften das öffentliche Diskussionsklima. Dieses Phänomen wird weltweit beobachtet und erforscht. Für diesen Beitrag haben wir 100.661 Publikumskommentare zu reichweitenstarken Facebook-Seiten deutscher Massenmedien in den Jahren 2018 und 2020 erfasst und daraus 1.303 Hasskommentare analysiert. Der digitale Hass zielt häufiger auf Männer als auf Frauen. Eingewanderte und Geflüchtete werden besonders häufig angegriffen, ebenso Politiker und Politikerinnen aller großen Parteien. Die Erklärung von digitalem Hass als Ausdruck von Rechtsextremismus greift zu kurz, vielfach richten sich die Kommentare auch gegen rechts oder sind nicht erkennbar politisch. Neuere Gesetzesinitiativen gegen den digitalen Hass zeigen offenbar Wirkung: Die Hassdichte der untersuchten Facebook-Seiten sank von 2,6 % in 2018 auf 0,9 % in 2020.

Insulting and threatening online comments hurt those being attacked and poison the climate of public discussion. This phenomenon is observed and researched worldwide. For this paper, we collected 100,661 comments on prominent Facebook pages of German mass media in 2018 and 2020 – 1,303 were identified as hate comments and analyzed in further detail. Digital hate targets men more often than women. Immigrants and refugees are attacked particularly frequently, as are male and female politicians from all major parties. The explanation of digital hate as an expression of right-wing extremism falls short; in many cases, the comments are also directed against the political right or are not political in nature. Recent legislative initiatives against digital hate appear to have an effect: the hate density of the Facebook pages studied fell from 2.6% in 2018 to 0.9% in 2020.

I. Begriffliche Einordnung

Die Forschung zu digitalem Hass stützt sich auf unterschiedliche Begriffe. Häufig ist in diesem Kontext von Hate Speech die Rede. Doch dieser Begriff erfasst nur einen Ausschnitt des Phänomens. Hate Speech richtet sich gegen bestimmte Gruppen oder Minderheiten, die Herabsetzung betrifft also nicht nur eine Einzelperson, sondern ein Kollektiv.[1] So definiert der Europarat Hate Speech als „all forms of expression which spread, incite, promote or justify racial hatred, xenophobia, anti-Semitism or other forms of hatred based on intolerance, including: intolerance expressed by aggressive nationalism and ethnocentrism, discrimination and hostility against minorities, migrants and people of immigrant origin“.[2]

Die vorliegende Untersuchung beschränkt sich nicht auf gruppenbezogenen Hass, sondern bezieht sämtliche Äußerungen in öffentlichen oder teilöffentlichen Bereichen des Internets ein, die Menschen beleidigen oder bedrohen oder in beiderlei Hinsicht angreifen. Auch Angriffe gegen Einzelpersonen können schwerwiegende Rechtsgutsbeeinträchtigungen darstellen und den öffentlichen Diskurs beeinträchtigen.

II. Die Bedeutung von digitalem Hass

1. Silencing-Effekte

Das Internet und insbesondere die sozialen Medien sind weltweit zum Tatort für Beleidigungen und Bedrohungen geworden. Die Unmittelbarkeit des Internets trägt dazu bei, dass sich die Verbreitung von Hassbotschaften beschleunigt hat.[3] Suler beschreibt die Enthemmung und Zuspitzung in virtuellen Diskursen als online disinhibition effect: „People say and do things in cyberspace that they wouldn’t ordinarily say and do in the face-to-face world“.[4]

Hasskommentare in sozialen Medien sind ein Massenphänomen. In einer Befragung der Landesanstalt für Medien NRW von rund 1000 deutschen Internet-Nutzern berichten 47 %, dass ihnen bereits Hasskommentare in sozialen Medien wie Facebook oder Instagram begegnet sind.[5] Eine im Rahmen des Forschungsprojekts „Digitaler Hass“ durchgeführte repräsentative Bevölkerungsbefragung zeigt, dass 10 % aller Befragten selbst schon einmal von Hass in der Internet-Öffentlichkeit (soziale Medien, Blogs etc.) betroffen waren.[6] Die Studie bestätigt einen „Silencing“-Effekt durch digitalen Hass: 42 % der Befragten gaben an, dass sie aus Sorgen vor Hasskommentaren schon einmal einen Beitrag bewusst vorsichtiger formuliert oder ganz darauf verzichtet hatten, einen Text zu posten.[7]

Digitaler Hass ist global verbreitet. Unter finnischen Facebook-Nutzern zwischen 15 und 18 Jahren geben 20,9 % an, sie befürchteten, das Ziel hasserfüllten oder herabwürdigen Online-Materials zu werden. 6,7 % räumen ein, selbst bereits derartiges Material verbreitet zu haben.[8] 41 % aller Befragten in den USA berichten von selbsterlebten Online-Belästigungen, dabei geben sie soziale Medien mit 75 % als häufigsten Verbreitungsweg an.[9] 80 % der Journalistinnen und Journalisten des britischen Guardian haben einer Befragung zufolge Hasskommentare erhalten, durchschnittlich 49-mal. 33 % der Befragten geben an, dass sie daraufhin öffentliche Debatten meiden, und 14 % haben ernsthaft erwogen, ihre journalistische Arbeit aufzugeben.[10]

2.Digitaler Hass als rechtsextremes Phänomen

In weiten Teilen der Forschung wird digitaler Hass vorrangig als Ausdruck von Rechtsextremismus beschrieben: „Die Geschichte des Hasses im Internet begann bereits in den 1980er Jahren, als rechtsextremistische Gruppierungen Foren von Usenet und Webseiten nutzten, um rassistische und antisemitische Hass-Propaganda zu verbreiten“.[11] Ähnlich nehmen Williams et al. den rechtsextrem und rechtspopulär geprägten digitalen Hass in den Blick: „Far right and popular right-wing activity on social media, unhindered for decades due to free-speech protections, has shaped the perception of many users regarding what language is acceptable online“.[12] Sponholz erläutert, dass Hate Speech und Rechtspopulismus logisch miteinander verknüpft seien.[13]

In der Folge fokussieren zahlreiche Studien explizit auf Phänomene von rechtsextremem digitalem Hass[14] oder richten den Blick auf Diskurse, die von Rechtsextremen dominiert werden, wenn es beispielsweise um Islamophobie im Internet geht.[15] Damit verweist die Forschung darauf, dass digitaler Hass vor allem für Rechtsextremismus steht – allerdings deshalb, weil alternative Deutungen kaum erforscht sind.

Auch in der Politik wird digitaler Hass überwiegend als rechtsextremes Problem bewertet. So wurden die Neuregelungen zu digitalem Hass durch ein Gesetz eingeführt, das bereits in seinem Namen beide Phänomene zusammenzieht („Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität“). In der Entwurfsbegründung heißt es dann auch, dass zentrales Anliegen „eine effektive Strafverfolgung insbesondere von Hasskriminalität mit rechtsextremistischem Hintergrund“ sei.[16]

Daraus ergibt sich folgende Forschungshypothese:

FH1: Hasskommentare sind vorrangig als rechtspopulär bzw. rechtsextrem einzuordnen.

III. Juristische Einordnung

Digitaler Hass kann verschiedene Straftatbestände erfüllen, etwa als Beleidigung (§ 185 StGB), Volksverhetzung (§ 130 StGB), Bedrohung (§ 240 StGB), öffentlicher Aufruf zu Straftaten (§ 111 StGB), Störung des öffentlichen Friedens durch Androhung von Straftaten (§ 126 StGB) oder Billigung von Straftaten (§ 140 StGB).

1. Restriktive Handhabung von Strafgesetzen

Eine Vielzahl hasserfüllter Kommentare wird strafrechtlich allerdings nicht geahndet. Das liegt teilweise daran, dass die Justiz das geltende Recht nur zurückhaltend anwendet und – meist unter Hinweis auf die Meinungsfreiheit – restriktiv auslegt. In Öffentlichkeit und Strafrechtswissenschaft für Unverständnis[17] sorgten die Beschlüsse des LG Berlin im Fall der Grünen-Politikerin Renate Künast.[18] Die Richter sahen etwa in dem Kommentar „Schlampe“ keine „primär auf eine Diffamierung der Person der Antragstellerin“ gerichtete strafbare Beleidigung, sondern eine „Auseinandersetzung in der Sache“.[19] Auch der Kommentar „Drecks Fotze“ bewege sich zwar „haarscharf“ an der Grenze des Strafbaren, müsse von der „Antragstellerin als Politikerin“ aber noch hingenommen werden.

Ein Grund für die unvertretbar enge Auslegung von § 185 StGB mag in der Rechtsprechung des BVerfG gesehen werden, das immer wieder betont hatte, dass auch „Kritik hingenommen werden [müsse], die in überspitzter und polemischer Form geäußert wird, weil andernfalls die Gefahr einer Lähmung oder Verengung des Meinungsbildungsprozesses drohte“.[20] In der Literatur war die Rechtsprechung des Gerichts als „weitestgehende Abschaffung des strafrechtlichen Ehrenschutzes im Bereich von Meinungs- und Pressefreiheit“[21] kritisiert worden.

Das BVerfG hat in seinen „Mai-Beschlüssen“ von 2020 klargestellt, dass kein genereller Vorrang der Meinungsfreiheit gegenüber dem Persönlichkeitsschutz besteht.[22] Das Gericht nimmt dabei auch die digitale Kommunikation in den Blick und erkennt an, dass die ehrbeeinträchtigende Wirkung einer Äußerung verstärkt werde, wenn sie „besonders sichtbar in einem der allgemeinen Öffentlichkeit zugänglichen Medium“, wie dem Internet, getätigt werde.[23] Gerade bei digitalem Hass gegen Politikerinnen und Politiker liege „ein wirksamer Schutz der Persönlichkeitsrechte von Amtsträgern und Politikern über die Bedeutung für die jeweils Betroffenen hinaus auch im öffentlichen Interesse, was das Gewicht dieser Rechte in der Abwägung verstärken kann“. [24] Die Bereitschaft von Bürgern zur Mitwirkung an Staat und Gesellschaft ist für eine Demokratie wesentlich; sie könne aber nur erwartet werden, „wenn für diejenigen, die sich engagieren und öffentlich einbringen, ein hinreichender Schutz ihrer Persönlichkeitsrechte gewährleistet ist“. [25]

In einem Bericht der deutschen Landesmedienanstalten kritisiert insbesondere die Thüringer Landesmedienanstalt einen zu restriktiven Umgang der Staatsanwaltschaften mit volksverhetzenden Inhalten und nennt eine Reihe von Beispielen, die von den zuständigen Staatsanwälten als nicht strafbar eingestuft wurden.[26] So soll der Kommentar „Diese Subjekte sind einfach nur abartiger Dreck“ keinen strafbaren Angriff gegen die Menschenwürde der Betroffenen durch Beschimpfen, böswilliges Verächtlichmachen oder Verleumden darstellen (§ 130 Abs. 1 Nr. 2 StGB). Hierfür sei es erforderlich, dass den Angegriffenen ihr Lebensrecht als gleichwertige Personen in der staatlichen Gemeinschaft abgesprochen und sie als unterwertige Wesen behandelt würden. Die Reduktion von Menschen auf „abartigen Dreck“ scheint hierfür gerade ein Lehrbuchbeispiel zu sein, wird von der Staatsanwaltschaft allerdings als „schlichte Beleidigung“ gewertet.[27]

2. Fragmentarischer Schutz

Andere der im Bericht des Landesmedienanstalten angeführten Beispiele erscheinen zwar ebenfalls strafwürdig; die Annahme der Staatsanwaltschaften, dass die Äußerungen durch das geltende Strafrecht nicht geahndet werden können, ist aber zutreffend. Strafnormen erfassen nur Ausschnitte des Phänomens digitaler Hass; ihr Schutz ist damit fragmentarisch.

Der Tatbestand der Volksverhetzung etwa stellt nur Äußerungen unter Strafe, die eine in Abs. 1 Nr. 1 konkret benannte Gruppe (oder ein Mitglied dieser Gruppe) betrifft. Der von der LMA zitierte Kommentar zur Rettung von Migranten im Mittelmeer „Muss man sie abknallen! Dan ist endlich Ruhe!“ ist zwar geeignet, ein feindseliges Diskussionsklima zu schaffen, verwirklicht aber nicht § 130 StGB. Migranten oder Geflüchtete, die sich außerhalb Deutschlands befinden, stellen keinen „Teil der Bevölkerung“ dar und erfüllen aufgrund ihrer unterschiedlichen nationalen, religiösen oder ethnischen Hintergründe auch kein sonstiges Gruppenmerkmal des Volksverhetzungstatbestandes.[28] Gleiches gilt, wenn sich der Hass gegen mutmaßliche Straftäter richtet; auch sie bilden für sich genommen keine von § 130 StGB geschützte Gruppe.[29]

Ähnliche „Schutzlücken“[30] finden sich auch in anderen Tatbeständen. So unterfallen etwa allgemein formulierte Drohungen („Eine Bombe, und alles ist gut.“[31]) nicht dem Straftatbestand der Bedrohung, da § 241 StGB die Androhung einer zumindest im Ansatz konkretisierten Straftat voraussetzt.[32] Auch das – zunehmend zu beobachtende – kommentarlose Posten eines Fotos von einem Galgen mit klarem Bezug zu einer bestimmten Person ist nach geltendem Recht nicht strafbar. Die Billigung von Straftaten nach § 140 StGB setzt die Zustimmung zur konkreten Straftat voraus; hier lässt sich der Post auch als eine – straflose – Aufforderung zum Suizid deuten.[33]

3. Gesetzgeberische Reformen im Bereich des digitalen Hasses

Mit dem im April 2021 in Kraft getretenen Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität[34] hat es der Gesetzgeber unternommen, das materielle Strafrecht „noch deutlicher als bisher auf die mit Hasskriminalität verbundenen Rechtsgutsverletzungen“ auszurichten.[35] 

Für im Internet begangene Beleidigungen wurde die Höchststrafe von einem auf zwei Jahre Freiheitsstrafe angehoben. Damit soll den Gerichten ermöglicht werden, „auf besonders schwerwiegende Fälle der Beleidigung angemessen zu reagieren“.[36] Zugleich werden Taten gegen Politikerinnen und Politikern strenger geahndet. Beleidigungen (und nicht länger nur die üble Nachrede oder Verleumdung), die geeignet sind, das öffentliche Wirken der Person erheblich zu erschweren, können nach § 188 Abs. 1 StGB mit einer Freiheitsstrafe von bis zu drei Jahren sanktioniert werden.

In den Tatbeständen der Bedrohung sowie der Störung des öffentlichen Friedens durch Androhung von Straftaten wurden die Kataloge der in Bezug genommenen Strafnormen erweitert. Bislang war etwa nicht strafbar, jemandem mit einer gefährlichen Körperverletzung zu drohen; § 241 StGB setzte bis zur Reform die Androhung eines Verbrechens voraus. Nach neuer Rechtslage genügt für § 241 StGB die Bedrohung mit einer rechtswidrigen Tat gegen die sexuelle Selbstbestimmung, die körperliche Unversehrtheit, die persönliche Freiheit oder gegen eine Sache von bedeutendem Wert.[37]

Erheblich erweitert wurde der Anwendungsbereich von § 140 StGB.[38] Der Tatbestand war so formuliert, dass allein die Belohnung oder Billigung einer bereits begangenen oder zumindest strafbar versuchten Tat unter Strafe gestellt wurde. Kommentare wie „Das wäre ein Geschenk für unser Vaterland, wenn jemand sie erschießt. Ein schneller Genickschuss.“, mit denen der Täter künftige Taten gutheißt, waren nicht erfasst. Die gesetzliche Neuregelung beschränkt das Erfordernis der bereits begangenen Tat auf die Tathandlung der Belohnung und sanktioniert damit nun auch die Billigung zukünftiger – schwerer – Straftaten.

Mit einer weiteren Reform vom Juni 2021 hat der Gesetzgeber auf zwei neue Phänomene des digitalen Hasses reagieren. In § 126a StGB wird nunmehr die Gefährdende Verbreitung personenbezogener Daten bestraft. Hiervon erfasst wird sowohl das sogenannte „Doxing“ – also das Publikmachen etwa von Telefonnummer oder Adresse einer Person im Internet – als auch die Veröffentlichung von Namen auf „Feindeslisten“.[39]Durch die Einführung eines Straftatbestandes der Verhetzenden Beleidigung in § 192a StGB-E soll unter Strafe gestellt werden, wenn jemand Inhalte, die den Tatbestand der Volksverhetzung erfüllen würden, einer Person zugänglich macht, die der herabgewürdigten Gruppe angehört. Solche Handlungen fallen bislang nicht unter § 130 StGB, da es bei privaten Zusendungen regelmäßig an einer Eignung zur öffentlichen Friedensstörung fehlt; § 185 StGB soll nicht einschlägig sein, wenn es an einem Bezug zu einer konkreten Person fehlt.[40]

Untersuchungen zu den tatsächlichen Erscheinungsformen digitalen Hasses können die Grundlage für eine Bewertung der bisherigen Gesetzesänderungen bilden und Anlass für weitere Reformen strafrechtlicher Normen sein.

IV. Adressaten von digitalem Hass

1. Hass gegen Eingewanderte und Geflüchtete

Ekman sieht eine zentrale Rolle der Medien darin, dass rassistische Haltungen durch die Rekontextualisierung von Mainstream-Nachrichten über Geflüchtete und Eingewanderte emotional aufgeladen werden.[41] In deutschen Fernsehnachrichten erreichte das Thema Flucht und Migration in den zurückliegenden Jahren herausragende Aufmerksamkeit.[42]

Nach einer Analyse von 70 Millionen Kommentaren, die den britischen Guardian zwischen 2006 und 2016 erreichten, führen ethnische Themen (race issues) zu besonders vielen normverletzenden Kommentaren, die von der Redaktion geblockt wurden.[43] Bei den Facebook-Seiten ausgewählter deutscher Medien wächst die Zahl feindseliger Kommentare, wenn es um Eingewanderte und Geflüchtete geht – ein Phänomen, das sich in der vergleichenden Analyse US-amerikanischer Medienseiten allerdings nicht abbildet.[44]

Nach einer repräsentativen Befragung in Deutschland berichten 14 % der Befragten mit Migrationshintergrund, dass sie Ziel von Hasskommentaren wurden, mehr als doppelt so viel wie Befragte ohne Migrationshintergrund (6 %).[45] Möglicherweise polarisiert das Thema Flucht und Migration in Deutschland stärker als in anderen Ländern.

Daraus ergibt sich folgende Forschungshypothese:

FH2: Eingewanderte und Geflüchtete werden besonders häufig zum Ziel von Hasskommentaren.

2. Hass gegen Frauen

Eine Reihe von Autorinnen vertritt die These, dass Frauen besonders häufig zur Zielscheibe von digitalem Hass werden.[46] Banet-Weiser & Miltner sprechen von einer neuen Ära im „Krieg der Geschlechter“, geprägt durch ein alarmierendes Ausmaß an Gewalt gegen Frauen in der Online-Sphäre.[47] Jane zitiert Hasskommentare aus sozialen Medien und Medienwebseiten und kommt zu der Einschätzung, dass Frauenhass bis hin zu Vergewaltigungs- und Todesdrohungen zur Verkehrssprache in vielen Sektoren des Cyberspace geworden ist.[48]

Mehrere fokussierte Inhaltsanalysen stützen den Befund, dass Hasskommentare im Internet vor allem auf Frauen zielen. Unter mehr als 50.000 Hasskommentaren deutscher Rechtsextremisten per Twitter richten sich doppelt so viele auf Frauen und Mädchen wie auf Männer und Jungen.[49] In einer Analyse von Kommentaren zu YouTube-Videos, die Missgeschicke zeigen (so genannte fail videos) kommen Döring & Mohseni zu dem Ergebnis, dass Frauen häufiger als Männer zum Ziel von Hasskommentaren werden (34,6 % vs. 25,2 %).[50] Dabei erhalten Frauen etwa fünfmal so häufig sexistische bzw. sexuell aggressive Kommentare (26,0 vs. 5,4 %). Unter den zehn Stammautorinnen und -autoren der Guardian-Kolumne Comment is free, die am häufigsten von der Redaktion geblockte Kommentare erhielten, waren acht Frauen (neben zwei schwarzen Männern).[51] Jaki et al. zeigen in einer Fallstudie des mittlerweile geschlossenen Diskussionsforums Incels.me[52], dass 30 % aller Diskussionsstränge des Forums frauenfeindliche Begriffe enthielten, jeder zweite Nutzer gab Hasskommentare ab.[53]

Befragungen in der Breite zeigen dagegen ein anderes Bild. Eine repräsentative Befragung in Deutschland verweist darauf, dass männliche Befragte (13 %) häu­figer von Hasskommentaren betroffen sind als weibliche (7 %).[54] Ähnlich berichten männliche Befragte in Norwegen mit 6,8 % deutlich häufiger, Hasskommentare erhalten zu haben, als Frauen mit 4,4 %. Dabei beziehen sich Hasskommentare bei Frauen dreimal so häufig auf ihr Geschlecht wie bei Männern (0,6 zu 0,2 %).[55] Einer repräsentativen Befragung von Erwachsenen in den USA zufolge erleben Männer etwas häufiger Online-Belästigung als Frauen (43 vs. 38 %), während Frauen etwa dreimal so häufig sexuelle Belästigung schildern (16 vs. 5 %) und dreimal so häufig die Angriffe als extrem verstörend empfinden (15 vs. 5 %).[56]

Daraus ergeben sich folgende Forschungshypothesen:

FH3a: Männer werden häufiger zum Ziel von Hasskommentaren als Frauen.

FH3b: Frauen werden häufiger sexualisiert angegriffen als Männer.

3. Hass gegen politisch Verantwortliche

„Ein scheinbar unausweichliches Merkmal des digitalen Zeitalters ist es, dass Menschen, die ihr Leben der Politik widmen, damit auch in Kauf nehmen müssten, sich einer Flut von Beleidigungen und abfälligen Kommentaren zu stellen, die über soziale Medien an sie gerichtet sind“ – zu diesem Fazit kommen Rheault, Rayment & Musulan.[57] Diese Einschätzung deckt sich mit dem Befund, dass 50,2 % der deutschen Bürgermeisterinnen und Bürgermeister berichten, dass sie über soziale Medien bedroht und beschimpft wurden.[58] Eine weitere Studie mit Bundestags- und Landtagsabgeordneten kam zu dem Ergebnis, dass 97,5 % der Befragten bereits im Netz angefeindet wurden.[59]

Nach einer Analyse von Online-Kommentaren, die an die Zeitung Arizona Daily Star gerichtet waren, wird ein besonders hohes Ausmaß an digitalem Hass erreicht, wenn Spitzenpolitikerinnen und Spitzenpolitiker zitiert werden.[60] Ähnlich, aber in schwächerer Ausprägung, steigt die Zahl von Hasskommentaren auf Facebook-Seiten von deutschen und amerikanischen Medien, wenn darin Politiker und Politikerinnen erwähnt werden.[61]

Daraus ergibt sich folgende Forschungshypothese:

FH4: Politisch Verantwortliche werden besonders häufig zum Ziel von Hasskommentaren.

V. Untersuchungsanlage

1. Stichprobe

Unsere Forschung verfolgt das Ziel, eine breite gesellschaftliche Debatte abzubilden und sich nicht auf einzelne Foren oder Diskussionsstränge zu beschränken, die zwar besonders viele Hasskommentare erwarten lassen, damit aber nur einen begrenzten Kontext repräsentieren.  Daher war die Forschungsstrategie, reichweitenstarke Facebook-Seiten großer deutscher Medienhäuser zu analysieren und nicht etwa extremistische Telegram-Chats.

Erfasst wurden zu unterschiedlichen, zufällig gewählten Analysezeitpunkten die jeweils aktuellsten Beiträge und Kommentare. Soweit Redaktionen nahezu in Echtzeit die Kommentarspalten prüfen und beleidigende und bedrohliche Kommentare löschen, können damit nicht alle verbreiteten Kommentare analysiert werden. Diese methodische Begrenzung ist allerdings gering, da Kommentare, die nur wenige Minuten lang online sind, auch nur eine geringe Wirkung entfalten.

 

 

 

 

 

Tab. 1: Reichweiten der untersuchten Facebook-Seiten Angaben Stand 26.2.2021

 

Insgesamt wurden 100.661 Facebook-Kommentare zu 589 Posts auf den Facebook-Seiten der großen Medienmarken Tagesschau, heute, Spiegel, Focus, Bild und Welt aus dem Januar 2018 und acht Wochen zwischen Juli und November 2020 analysiert.

2018 war ein automatisiertes Herunterladen der Kommentare (scraping) noch möglich. Untersucht wurden randomisiert 25.039 Facebook-Kommentare zu 137 Posts vom 24. bis 29. Januar. Daraus wurden 639 Hasskommentare herausgefiltert, dies entspricht einem Anteil von 2,6 %.

2020 war uns ein automatisiertes Herunterladen aufgrund technischer Veränderungen durch Facebook nicht mehr möglich, so dass studentische Hilfskräfte händisch vorgingen. Aufgrund ihrer begrenzten Arbeitszeiten verlängerte sich damit der Auswertungszeitraum, in dem wiederum randomisiert 75.622 Facebook-Kommentare zu 452 Posts aus acht Wochen zwischen dem 13.7. und 4.11.2020 erfasst wurden. Der Zeitraum war dadurch bestimmt, eine ähnliche hohe Zahl an Hasskommentaren wie 2018 zu erreichen. Dabei wurden 664 Hasskommentare identifiziert, was einem Anteil von 0,9 % entspricht.

Die Ziehung der Stichprobe erfolgte jeweils für alle untersuchten Medien im selben Untersuchungszeitraum, um die strikte Randomisierung 2018 und 2020 in gleicher Weise zu gewährleisten. Dadurch differiert jeweils die Zahl der Beiträge, der Kommentare und daraus herausgefilterten Hasskommentare. In einem Rechenmodell haben wir alle Beiträge nach den Marktanteilen der untersuchten Facebook-Seiten gewichtet. Dadurch veränderten sich die Ergebnisse um maximal 0,1 %. Daher haben wir von einer nachträglichen Gewichtung der Teilstichproben abgesehen.

2. Filterkriterien und Beispiele

Kommentare griffen Inhalt oder Tendenz eines redaktionell verbreiteten Beitrags nicht zwangsläufig auf. Daher wurden sowohl Thema und Facebook-Kanal der kommentierten Beiträge sowie inhaltliche und formale Merkmale der Kommentare nach elf Kategorien (s. Tab. 2) gesondert erfasst. Alle Texte und alle Links zu den Profilen der Kommentierenden wurden für vertiefende Analysen dokumentiert.

Die Codierung der Facebook-Kommentare folgte der oben dargestellten Definition von digitalem Hass. Diese geht bewusst über den durch das geltende Strafrecht gesteckten Rahmen hinaus, da – wie dargelegt – die bestehenden Strafnormen nicht sämtliche Formen von (möglicherweise strafwürdigen) Hasskommentaren erfassen.

Als beleidigend wurden etwa Formulierungen erfasst, die anderen das Menschsein absprachen (beispielsweise: „… wenn ein rechter Verehrer von Faschismus und AfD (wie Sie) von normalen Menschen spricht ist das wie die Schleimspur einer Nacktschnecke im Salatbeet …“), Menschenrechte negierten („Die armen Kinder! Warum dürfen solche Menschen Kinder haben?“)[62] oder schwerwiegende persönliche Abwertungen enthielten („Was gibt es doch mittlerweile für hässliche und ekelhafte Kreaturen auf dieser Welt!“).

Erfasst wurden zudem Kommentare, die bedrohlich wirkten, indem sie zu Gewalt aufriefen oder Gewalt befürworteten. Codiert wurde beispielsweise: „ich würde solche Leute ohne Wasser in der Wüste aussetzen“ / „Findet bloß den oder die Täterin. Hinters Auto binden und dann durch den Ort oder Stadt schleifen. So langsam muss man sich was einfallen lassen mit der Tierquälerei.“ / „Mann müsste den Typ aus dem 3 Stock schmeißen dann schön liegen lassen“. Dabei wurden nicht generell Forderungen nach drakonischen Strafen („Die verantwortlichen Politiker, Juristen und sonstige Unterstützer solcher Typen sollten alle sehr sehr hart bestraft werden!“), wohl aber Gewaltphantasien oder Aufrufe zu willkürlicher Gewalt berücksichtigt. Erfasst wurden auch implizite Beschreibungen, etwa: „Vielleicht müsste man die Richterin in einer dunkelen Ecke auch mal richtig ………. Mal sehen wie das Urteil dann ausfällt“ / „Ich sag’s mal so: ‚Ich würde keine Träne vergießen wenn die engsten Angehörigen des Richters mal so richtig durchbereichert werden würden.‘“.

Vielfach waren Kommentare sowohl beleidigend als auch bedrohlich, beispielsweise: „So einem Schwein müsste man die Wurst samt Eier in Stücke hacken!!!“.

3. Reliabilität

Eine verlässliche Bestimmung von Hasskommentaren ist außerordentlich schwierig. Vielfach sind sie kurz, deuten Beleidigungen oder Bedrohungen lediglich an und erschließen sich nur aus dem Zusammenhang. Die Grenzen zwischen Polemik und Beleidigung sind fließend.[63] Um sie einheitlich zu setzen, bedarf es im Rahmen eines Forschungsprojektes einer möglichst genauen Festlegung.

Die Reliabilität der Codierung wird mit verschiedenen Algorithmen berechnet. Nach Krippendorffs Alpha wird völlige Übereinstimmung mit dem Wert α 1.00 ermittelt, als Schwellenwert gilt α .80, für vorläufige Schlussfolgerungen dienen Werte α ≥ .67.[64] So erzielen Coe, Kenski & Rains für einige Kategorien von abfälligen Online-Kommentaren einer US-Zeitung Übereinstimmungswerte von α=.67 (name-calling) bzw. α=.61 (aspersion), für Vulgärsprache (vulgarity) einen deutlich höheren Wert von α=.91.[65] Humprecht, Hellmueller & Lischka vermerken in ihrer Analyse deutscher und US-amerikanischer Online-Medien eine durchschnittliche Übereinstimmung von α=.79.[66] Ziegele et al. erreichen für Beleidigungen (insults) einen Wert von α = .84.[67]

Um eine größtmögliche Reliabilität zu erreichen, wurden die 24 im hier vorgestellten Forschungsprojekt eingesetzten Hilfskräfte gründlich geschult und ihre Codierungen in einem zweistufigen Verfahren geprüft. Damit konnte ein Reliabilitätskoeffizient nach Krippendorff von α=.78 für beleidigende und von α=.88 für bedrohliche Kommentare erzielt werden. 

4. Grenzen dieser Untersuchung

Die in diesen Auswertungen verwendeten Auswertungsmethoden unterliegen zwei methodischen Einschränkungen. Zum einen wurden die analysierten Posts zufällig in zwei begrenzten Zeiträumen in 2018 und 2020 ausgewählt. Die in der Arbeit dargestellten Unterschiede zwischen den Auswertungen in 2018 und 2020 zeigen, dass sich insbesondere die Themenschwerpunkte zwischen diesen beiden Zeiträumen deutlich verändert haben. Insofern handelt es sich um einen aus unserer Sicht vertretbaren, aber vereinfachenden Ansatz, für zusammenfassende Analysen die Kommentare aus beiden Zeiträumen als eine gemeinsame Zufallsstichprobe zu betrachten.

Eine zweite methodische Limitation ergibt sich daraus, dass die Kommentare in ihrer zeitlichen Abfolge einer Facebook-Debatte eine Abhängigkeitsstruktur aufweisen können, die wir in den statistischen Auswertungen aus forschungsökonomischen Gründen nicht berücksichtigt haben. Unter diesem Vorbehalt sind in der Folge die mit dem Exakten Fisher-Test errechneten Signifikanzen zu interpretieren. Die innere Dynamik einer Facebook-Debatte ist statistisch nur schwer erfassbar und ein eigener Untersuchungsgegenstand.

VI. Ergebnisse

1. Deutliche Abnahme der Hassdichte zwischen 2018 und 2020

Der Anteil der Hasskommentare auf den untersuchten Facebook-Seiten großer deutscher Medien ging von 2,6 % im Jahr 2018 auf 0,9 % im Jahr 2020 auf rund ein Drittel zurück. Der Rückgang des Anteils an Hasskommentaren zwischen 2018 und 2020 zeigt sich für alle untersuchten Medien und fällt bei Tagesschau (von 3,1 auf 0,5 %) und Welt (von 2,0 auf 0,4 %) am stärksten und bei Bild (von 2,9 auf 2,2 %) am schwächsten aus.

2. Hassdichte nach Themen: Tierquälerei und Kriminalität erzielen am meisten Hasskommentare

In der vergleichenden Analyse der kommentierten Themen und der jeweiligen Anteile an Hasskommentaren zeigt sich eine Veränderung der inhaltlichen Struktur sowie der Hassdichte. Alle untersuchten Kommentare wurden einem oder mehreren Themen zugeordnet, daher liegt die Summe aller Anteile jeweils über 100 %.

2018 waren Migration (27,9 %) und Rechtsextremismus (26,1 %) auf den Facebook-Seiten reichweitenstarker deutscher Medien die Top-Themen, die dagegen 2020 mit 5,3 bzw. 5,4 % nur noch eine untergeordnete Rolle spielten. Das 2020 beherrschende Thema war die Corona-Pandemie, die 46,5 % aller Facebook-Kommentare bestimmte und den Anstieg des Themas Gesundheit von 6,6 auf 48 % erklärt.

 

 

 

Tab. 2: Anteile der Themen und Hasskommentare 2018 und 2020

N (2018) = 25.039 Nutzer-Kommentare aus dem Januar 2018, N (2020) = 75.622 Nutzer-Kommentare aus Juli bis November 2020 jeweils zu den Facebook-Seiten von Tagesschau, heute, Spiegel, Focus, Bild und Welt.

 

Wie Tabelle 2 zeigt, ist der Anteil der Hasskommentare zu nahezu allen Themenbereichen von 2018 auf 2020 gesunken. Kaum verändert ist der Anteil beim Thema Kriminalität, überdurchschnittlich hoch sind 2020 die Anteile bei den Themen Tiere und Umwelt (vor allem Fälle von Tierquälerei) mit 3,2 %, Kriminalität (2,6 %) und Migration (1,4 %).

3. Hasskommentare richten sich häufiger gegen rechts als gegen links

Um möglichst verlässliche Ergebnisse zu erzielen, richtet sich die Inhaltsanalyse der Hasskommentare auf klar benannte Sachverhalte, beispielsweise, welche Parteien oder welche politischen Ausrichtungen ausdrücklich genannt werden. Dadurch ergeben sich im Folgenden Abweichungen, wenn beispielsweise Angela Merkel als Bundeskanzlerin angegriffen, aber ihre Partei, die CDU, nicht ausdrücklich erwähnt wird.

 

 

Tab. 3: Politische Bezüge aller Hasskommentare 2018 und 2020 in Prozent

N = 1.303 Hass-Kommentare aus insgesamt 100.661 Nutzer-Kommentaren aus dem Januar 2018 sowie aus Juli bis November 2020 zu den Facebook-Seiten von Tagesschau, heute, Spiegel, Focus, Bild und Welt. Erfasst wird die ausdrückliche Nennung der jeweiligen Parteien bzw. rechter Haltung (rechts, Rechtsextremist, Nazi etc.) oder linker Haltung (links, Linksextremist etc.).

 

Hasskommentare richten sich etwas häufiger ausdrücklich gegen rechte und rechtsextreme Haltungen (2,2 %) als gegen linke und linksextreme (2,0), etwas häufiger gegen die Alternative für Deutschland (AfD) mit 1,8 % als gegen Bündnis 90 / Die Grünen mit 1,5 %, gegen alle übrigen im Bundestag vertretenen Parteien mit 0,1 bis 0,3 % deutlich weniger. Vielfach wird allerdings kein konkreter ideologischer bzw. parteipolitischer Bezug genannt.

Die fünf am häufigsten genannten Politikerinnen und Politiker sind Bundeskanzlerin Angela Merkel (4,8 %), der Thüringer AfD-Landesvorsitzende und Fraktionschef Björn Höcke (3,2), Bundeslandwirtschaftsministerin Julia Klöckner (1,4), Ministerpräsident Markus Söder (0,8) und Bundesgesundheitsminister Jens Spahn (0,6).

Damit lässt sich die Forschungshypothese FH1, dass Hasskommentare vorrangig als rechtspopulär bzw. rechtsextrem einzuordnen sind, nicht bestätigen.

4. Hasskommentare richten sich häufig auf Flucht und Einwanderung

Bei der Betrachtung der kommentierten Facebook-Posts ist das Thema Flucht und Einwanderung 2018 mit 27,9 % aller Kommentare das meistkommentierte Thema, während es 2020 mit 5,3 % aller Kommentare deutlich weniger Aufmerksamkeit erfährt. Die Hassdichte ist in beiden Jahren mit 3,0 bzw. 1,4 % jeweils überdurchschnittlich.

Die 2018 und 2020 untersuchten Hasskommentare zielen häufig auf die nichtdeutsche Herkunft (12,4 %), seltener auf die Zugehörigkeit zum Islam (4,5) oder zum Judentum (0,4). Die verbalen Attacken zum Thema Flucht und Einwanderung, ausgelöst etwa durch einen Tagesschau-Bericht über eine Demonstration kurdischer Gruppen in Köln, richten sich auf Geflüchtete und Eingewanderte: „Eine bombe und alles ist wie der in ordnung“, aber auch auf andere Akteure: „Nazistaat jetzt werde ich jeden Bullen was in die Schnauze hauen“.

Damit lässt sich die Forschungshypothese FH2, dass Eingewanderte und Geflüchtete besonders häufig zum Ziel von Hasskommentaren werden, bedingt stützen. 

5. Männer sind häufiger als Frauen Ziel von Hasskommentaren

Nach unserer Analyse der Hasskommentare aus der Grundgesamtheit von 100.661 Kommentaren zu reichweitenstarken Facebook-Seiten deutscher Medien aus 2018 und 2020 werden Frauen seltener angegriffen als Männer. Kommentare, die sich auf einen oder mehrere Männer beziehen, überwiegen mit 29,0 % gegenüber den Kommentaren, die sich auf eine oder mehrere Frauen beziehen (16,7 %). Nicht berücksichtigt wurden dabei Kommentare, die sich sowohl auf Männer wie auf Frauen beziehen oder keine Zuordnung zum Geschlecht erlauben.

In der inhaltlichen Ausrichtung zeigt sich ein deutlicher Unterschied – 15,7 % der Hasskommentare gegenüber Frauen beziehen sich auf ihr Geschlecht, wenn es etwa heißt: „Die Dame hat doch nichts hin bekommen ohne zu versagen.  Ist doch echt nur eine quotentrulla“. Bei Männern sind Geschlechtsbezüge mit 0,8 % rar. Dieser Unterschied ist nach dem Exakten Fisher-Test hochsignifikant.

Frauen werden häufiger (7,6 %) als Männer (4,5 %) zum Ziel von sexualisierten Hasskommentaren: „Die ist ein blonde zweibeinige Müsli Matraze. Sonst kriegt sie keinen anderen ab“ Über eine Pflegerin, die eine demente Patientin geschlagen haben soll, heißt es: „Sucht und findet die Drecksnutte! Der gehört die Existenz zerstört!“. Vergleichbare Angriffe auf Männer sind seltener, beispielsweise gegenüber einem AfD-Politiker: „Der Schwanz Lutscher kann sich nicht mal bei seiner Frau durchsetzten aber am Bosporus etwas ändern was für ne lachnummer!“ Aufgrund der geringen Zahl entsprechender Kommentare lässt sich mit dem Fisher-Test allerdings kein signifikanter Zusammenhang nachweisen.

Damit lässt sich die Forschungshypothese FH3a bestätigen, dass Männer häufiger zum Ziel von Hasskommentaren werden als Frauen. Die Forschungshypothese FH3b, dass Frauen häufiger als Männer sexualisiert angegriffen werden, lässt sich aufgrund der Stichprobengröße nicht signifikant bestätigen.

6. Politisch Verantwortliche werden vielfach angegriffen

Vielfach richten sich Hasskommentare gegen Personen des öffentlichen Lebens, dabei weniger gegen Prominente aus Unterhaltung und Kultur (2,5 %) oder aus dem Journalismus (0,5). Jeder fünfte Hasskommentar (19,9 %) zielt auf Politiker und Politikerinnen. Dabei werden häufig Vernichtungsphantasien beschrieben: „Am besten gleich die Tür zuschliesen wenn alle anwesend sind und dann von oben beton einfüllen“ / „Ich weiss nicht warum den keiner raushaut“ / „Sie sollten ihn dort lebendig einmauern.“.

Politiker werden häufiger (10,0 %) als Politikerinnen (6,6) angegriffen, die übrigen Kommentare (3,3) lassen sich keinem Geschlecht zuordnen. Politiker und Politikerinnen werden häufiger beleidigt als die Gesamtheit derer, gegen die sich Hasskommentare richten (88,0 vs. 69,2) und seltener bedroht (30,5 vs. 46,7). Beide Effekte verstärken sich bei Politikerinnen (93,0 % Beleidigung, 22,1 % Bedrohung).

Wenn Politikerinnen angegriffen werden, dann zu 14 % mit Bezug auf ihr Geschlecht, damit also etwas seltener als dies bei angegriffenen Frauen insgesamt der Fall ist (15,7 %). So heißt es beispielsweise über eine Bundesministerin: Was sie „in der Politik zu suchen hat, wird mir auf ewig ein Rätsel bleiben. Die ist für mich das personifizierte, hohlköpfige, Heim-und Herd Dummchen. Die ist herzlich eingeladen mir mal im Frühjahr mit irgendwelchen Landfrauen den Garten herzurichten.“.

Damit wird die Forschungshypothese FH4 bestätigt, dass politisch Verantwortliche besonders häufig zum Ziel von Hasskommentaren werden.

VII. Ergebnisbewertung

1. Rückgang der Hasskommentare

Auffällig ist ein Rückgang der Hasskommentare über alle untersuchten Medien und fast alle Themen. Lediglich bei Kommentaren zum Thema Kriminalität bleibt die Hassdichte 2020 mit 2,6 % annähernd so hoch wie 2018 (2,7). Insgesamt nahm die Anzahl der Kommentare je Post von durchschnittlich 182,8 auf 167,3 Kommentare nur leicht ab, so dass eine generelle Zurückhaltung beim Kommentieren nicht als Ursache für den Rückgang der Hassdichte in Frage kommt. Für den Rückgang bieten sich drei Erklärungen an:

a) Beherrschendes Thema Corona-Pandemie:

Im Jahr 2020 bezieht sich fast die Hälfte (46,5 %) aller untersuchten Facebook-Kommentare auf die Corona-Pandemie, das Themenfeld Gesundheit wuchs damit von 6,6 % in 2018 auf insgesamt 48,0 % in 2020 an. Kopytowska & Krakowiak beobachten eine zunehmende Polarisierung in Zeiten der Pandemie.[68] Doch anders als angesichts der vielfach emotionalisierten gesellschaftlichen Debatte erwartbar wäre, ist der Anteil an Hasskommentaren auf den untersuchten Facebook-Medienseiten zum Thema Gesundheit mit 0,5 % gering. Damit ist der insgesamt gemessene Rückgang an Hasskommentaren zwischen 2018 und 2020 von 2,6 auf 0,9 % nur teils erklärbar. Werden die Beiträge zur Corona-Pandemie herausgerechnet, beträgt der Anteil 2020 mit 1,3 % halb so viel wie 2018 (2,6 %).

b) Rückgang besonders polarisierender Themen:

Anfang 2018, kurz nach dem erstmaligen Einzug der AfD in den Deutschen Bundestag, waren besonders polarisierende Themen mit ausgeprägter Hassdichte dominant, vor allem Flucht und Einwanderung (27,9 % aller Kommentare) und Rechtsextremismus (26,1). Beide Themen finden 2020 rund ein Fünftel so viel Aufmerksamkeit. Die Diskussionen über Kriminalität und Tierquälerei, die in beiden Jahren viele Hasskommentare enthalten, gehen ebenfalls zurück, wenn auch weniger stark (vgl. Tab.2). Somit ist die Analyse des digitalen Hasses nicht vom gesamtgesellschaftlichen Klima zum jeweiligen Untersuchungszeitpunkt zu trennen.

c) Die strafrechtliche Verfolgung von digitalem Hass zeigt möglicherweise Folgen:

Die Untersuchung legt nahe, dass die gesetzgeberischen Initiativen gegen digitalen Hass Wirkung zeigen. So beziehen sich einige Kommentatoren ausdrücklich auf redaktionelle Kontrollmechanismen, wie in einem (nicht codierten) Kommentar zu einem Text über gequälte Katzen: „Wenn ich das schreiben wuerde,was ich denke.Gesperrt fuer immer“. Ein anderer äußert mit Blick auf juristische Sanktionen: „wenn ich jetzt schreibe was ich denke habe ich den staatsanwalt am hintern. also lasse ich es. nur soviel.. karma wird dich kriegen . und ich hoffe das es ein riesiger orientale ist der männer liebt…“. Kontrollen durch Plattformbetreiber und strafrechtliche Sanktionen scheinen hier also auch präventiv zu wirken und zumindest schwerste Formen von digitalem Hass im Vorfeld zu verhindern. Daran schließen systematisch erhobene Befunde zu den Selektionsentscheidungen im Community-Management an, beispielsweise die Studien von Ziegele et. al und Paasch-Colberg et al. Gleichzeitig zeigen die genannten Äußerungen, dass Kommentatoren häufig um die Grenzen des Strafrechts wissen und sich bewusst unterhalb der Schwelle zum strafbaren Verhalten bewegen.

 Die auf den untersuchten Facebook-Seiten beobachtete Abnahme der Hassdichte gibt jedoch keinen Anlass zur Entwarnung. Zu vermuten ist, dass der digitale Hass nicht schwindet, sondern weniger sichtbar wird, indem er sich beispielsweise von eher transparenten Facebook-Seiten in schwieriger zu kontrollierende Zonen wie Telegram-Seiten verlagert. Darauf verweisen neuere Umfragen, in denen weiterhin ein hoher Anteil der Befragten bekundet, dass sie Zeugen bzw. Ziel von digitalem Hass werden.[69]

2. Digitaler Hass und Rechtsextremismus

Wie oben dargelegt, wird digitaler Hass in der Medienforschung vielfach als rechtsradikal eingeordnet[70] oder als eng mit dem Rechtspopulismus verknüpft.[71] Zahlreiche Studien konzentrieren sich auf rechtsextrem dominierte digitale Diskurse.[72]

Mit der vorgelegten Analyse deutscher Facebook-Seiten reichweitenstarker Medien mit insgesamt rund 10 Mio. Abonnements haben wir ein breites Feld digitaler Debatten betrachtet. Damit können wir nicht bestätigen, dass der digitale Hass weithin Ausdruck rechter Ideologie ist.

Explizite Angriffe gegen politische Parteien und Richtungen richten sich etwas häufiger gegen rechts (2,2 %) als gegen links (2,0), häufiger gegen die AfD (1,8) als gegen die Grünen (1,5), vielfach aber bleiben die Angriffe diffus und sind politisch nicht zweifelsfrei zu verorten. Der digitale Hass zielt vielfach auf Eingewanderte und Geflüchtete (12,4 %), bezieht sich aber noch häufiger auf Straftaten (33,4 %), vor allem Kindesmissbrauch, oder die Quälerei von Tieren (19,5 %). Gleichwohl ist nicht auszuschließen, dass scheinbar unpolitische Angriffe auf mutmaßliche Straftäter oder Tierquäler, die einhergeht mit erhöhter Straflust bis hin zu Lynchphantasien, letztlich anschlussfähig sind an eine rechte Ideologie.

Digitaler Hass geht also auch, aber nicht nur von Rechtsextremisten aus. Hier besteht der Bedarf nach weiterer Forschung, wer die „‚besorgte[n]‘ Bürger*innen sind, die Formen des kommunikativen Anstands verloren bzw. nie für den digitalen Raum erlernt haben“.[73]

3. Angriffe auf Frauen

Die von Wissenschaftlerinnen vertretene These, Frauen würden besonders häufig digitalen Hass erleben[74] lässt sich im Untersuchungszeitraum nicht bestätigen. Gestützt wird dagegen das Ergebnis mehrerer Befragungen, nach denen mehr Männer als Frauen von digitalem Hass berichten.[75]Ein Grund dafür kann allerdings auch in geschlechtsspezifischem Vermeidungsverhalten liegen. Nadim & Fladmoe stützen den Befund, dass Frauen seltener als Männer angegriffen werden und stellen zugleich fest, dass Frauen sich aufgrund von Online-Angriffen eher aus Debatten zurückziehen.[76]

Festzuhalten ist allerdings, dass Frauen anders angegriffen werden – signifikant häufiger mit Bezug auf ihr Geschlecht. Inwieweit also Online-Diskurse dazu führen, dass sich vor allem Frauen der öffentlichen Diskussion fernbleiben, bedarf weiterer Forschung.

4. Angriffe auf Geflüchtete und Eingewanderte

Die Aufmerksamkeit für das Thema Flucht und Einwanderung ist von 2018 auf 2020 deutlich zurückgegangen. Insgesamt beziehen sich 12,4 % aller untersuchten Hasskommentare auf Eingewanderte und Geflüchtete. Damit wird diese Personengruppe häufig angegriffen, aber nicht so deutlich ausgeprägt wie in Studien, die beispielsweise Hasswellen nach mutmaßlich von Eingewanderten und Geflüchteten begangenen Straftaten untersuchen.[77]

Darin liegt allerdings per se kein Widerspruch, sondern verweist darauf, dass der digitale Hass in polarisierten Debatten heftiger zutage tritt, während er in Phasen der gesellschaftlichen Beruhigung weniger sichtbar wird und schwieriger Anschluss an virale Debatten findet.

Die zahlreichen Hasskommentare, die an Straftaten (33,4 %) anknüpfen, beziehen sich, formal gesehen, auf individuelle Delikte – eine Aufladung mit ausländerfeindlichen Ressentiments liegt allerdings nahe, auch wenn sie nicht explizit genannt werden. So postet die Bild einen Beitrag mit der Schlagzeile: „Attacke in Aachen: Polizist stoppt Messer-Angreifer mit Schuss in Bein.“[78] Der Beitrag wird vielfach kommentiert und geteilt. Einer äußert sein Bedauern darüber, dass der mutmaßliche Gewalttäter nur ins Bein geschossen und nicht getötet wurde: „Falsches Bein. Jochbein oder Nasenbein wäre besser gewesen.“. 273 klicken dazu ihre Bekundung von Zustimmung, Erheiterung oder Liebe.

Zu fragen ist, ob derartige Kommentare tatsächlich eine beliebige Person angreifen oder vielmehr von der rechtspopulistisch genährten Assoziation getragen sind, dass Gewalttaten mit Messern vor allem von Eingewanderten und Geflüchteten, in der Sprache der AfD „Messermigranten“, verübt werden.[79] Hier bietet sich Anschlussforschung an, um derartige Phänomene vertieft zu untersuchen und damit präziser einordnen zu können.

5. Angriffe auf politisch Verantwortliche

Deutlich häufiger als andere Personen des öffentlichen Lebens werden Politikerinnen und Politiker Ziel von digitalem Hass. Sie werden in jedem fünften Hasskommentar (19,9 %) angegriffen. Sie werden deutlich häufiger beleidigt (88,0 % aller an sie gerichteten Hasskommentare) als die Gesamtheit aller Angegriffenen und seltener bedroht (30,5 vs. 46,7 %). Dies lässt sich daraus erklären, dass sie in größerer Distanz wahrgenommen werden, also Drohgebärden subjektiv eher ins Leere laufen als bei Menschen des Alltagslebens, während sich Beleidigungen auch aus der Distanz heraus platzieren lassen.

Während Wahlkämpfe zunehmend in sozialen Medien ausgetragen werden, rückt die toxische Wirkung von digitalen Angriffen auf Politikerinnen und Politiker umso mehr in den Blick. Es sind vor allem die Mächtigen, die digitalen Hass erleben – oder anders formuliert, jene, die sich auf demokratische Mehrheitsentscheidungen stützen. Bis auf den AfD-Politiker Björn Höcke sind die am häufigsten attackierten politisch Verantwortlichen Mitglieder der Bundesregierung bzw. führen eine Landesregierung. Insofern würde ein Verständnis von digitalem Hass als einem Angriff auf Minderheiten zu kurz greifen.

6. Schlussfolgerungen für Rechtsprechung und Gesetzgebung

Für die kriminalpolitische Diskussion kann die vorliegende Untersuchung einige Impulse geben. Sie zeigt zunächst, dass digitaler Hass gegen Politikerinnen und Politiker ein gesellschaftliches Problem darstellt, auf das der Gesetzgeber mit der Ergänzung von § 188 StGB zu Recht reagiert hat. Auch das BVerfG hat die Gefahr dieses Phänomens für den freien öffentlichen Meinungsaustausch und die Funktionsfähigkeit demokratischer Institutionen erkannt. Damit löst sich der traditionelle Konflikt zwischen Meinungsfreiheit und Ehrschutz im Kontext digitalen Hasses auf.[80] Es ist davon auszugehen, dass Staatsanwaltschaften und Instanzgerichte im Lichte der „Mai-Beschlüsse“ künftig die Belange von Politikern stärker gewichten und die Grenzen des strafrechtlichen Schutzes weiter ziehen werden. Damit werden die in dieser Studie festgestellten besonderen Risiken für den offenen politischen Diskurs mittelfristig zu einer Verschiebung der Abwägung im Rahmen von § 185 StGB führen.

Der Gesetzgeber hat sich mit den jüngsten Änderungen zum Ziel gesetzt, mögliche „Lücken“ im strafrechtlichen Schutz vor digitalem Hass zu schließen. Die Initiative ist grundsätzlich sinnvoll, da sich Kommentatoren häufig bewusst unterhalb der Grenze des gesetzlich Strafbaren bewegen. Künftige Reformüberlegungen sollten sich insbesondere mit Verständnis und Reichweite des Gruppenbezugs in § 130 StGB auseinandersetzen.[81]Eine Vielzahl der hier beobachteten Hasskommentare knüpfen indirekt an die Zugehörigkeit zu einer Gruppe an, stellen aber keinen (eindeutigen) Fall der Volksverhetzung dar. Überlegenswert erscheint es vor dem Hintergrund der Untersuchungsergebnisse zudem, sexualbezogene Beleidigungen gesondert (etwa als Qualifikationstatbestand) zu erfassen.[82]

 

[1]      Sponholz, Hate Speech in den Massenmedien – Theoretische Grundlagen und empirische Umsetzung, 2018, S. 48 ff.; Steinl/Schemmel, GA 2021, 86 (86 f.); Apostel, KriPoZ 2019, 287 (287 f.).
[2]      Europarat, Recommendation No. R (97) 20 of the Committee of Ministers to member states on “hate speech” adopted on 3 October 1997, 1 (2).
[3]      Vgl. auch differenziert Apostel, KriPoZ 2019, 287 (290).
[4]           Suler, CyberPsychology & Behavior 7 (2004), 321 (321).
[5]      Landesanstalt für Medien NRW, Hate Speech und Diskussionsbeteiligung im Internet (2019), S. 1 (4), online abrufbar unter: https://bit.ly/2W4CSHr (zuletzt abgerufen am 15.7.2021).
[6]      Forschungsgruppe g/d/p in Kooperation mit der Universität Leipzig, Hate Speech – Ergebnisse einer repräsentativen Bevölkerungsumfrage, 2020, S. 1 (16), https://bit.ly/3zhlZrq (zuletzt abgerufen am 15.7.2021).
[7]      Forschungsgruppe g/d/p in Kooperation mit der Universität Leipzig (Fn. 6), S. 1 (20); vgl. auch zu ähnlichen Ergebnissen kommend Landesanstalt für Medien NRW, Hate Speech und Diskussionsbeteiligung im Internet – Zentrale Ergebnisse der Hate Speech Sonderstudie, 2019, online abrufbar unter: https://bit.ly/3hOkH16 (zuletzt abgerufen am 15.7.2021), und Richter/Geschke/Klaßen, ZJJ 2020, 148 (150).
[8]      Räsänen/Hawdon/Holkeri/Keipi/Näsi/Oksanen, Violence and Victims 31 (2016), 708 (715).
[9]      Pew Research Center, The State of Online Harassment, 2021, S. 1 (11), online abrufbar unter: https://pewrsr.ch/3eD1ddF (zuletzt abgerufen am 15.7.2021).
[10]        Gardiner, Feminist Media Studies 18 (2018), 592 (601).
[11]    Fleischhack, in: Kaspar/Gräßer/Riffi (Hrsg.), Perspektiven auf eine neue Form des Hasses, Schriftenreihe zur digitalen Gesellschaft NRW, Bd. 4, 2017, S. 23 (23); vgl. Baldauf/Ebner/Guhl (Hrsg.), Hassrede und Radikalisierung im Netz: Der OCCI-Forschungsbericht, 2018, S. 20 ff., online abrufbar unter: https://bit.ly/3wM6SV6 (zuletzt abgerufen am 15.7.2021).
[12]        Williams/Burnap/Javed/Liu/Ozalp, The British Journal of Criminology 60 (2020), 93 (98).
[13]    Sponholz (Fn. 1), S. 91.
[14]    Guenther/Ruhrmann/Bischoff/Penzel/Weber, Social Media + Society 6 (2020); Jaki/De Smedt, Right-wing German Hate Speech on Twitter: Analysis and Automatic Detection, 2018, online abrufbar unter: https://bit.ly/2W5Az77 (zuletzt abgerufen am 15.7.2021).
[15]    Horsti, New Media & Society 19 (2017), 1140; Hanzelka/Schmidt, International Journal of Cyber Criminology 11 (2017), 143; Bartlett/Krasodomski-Jones, Counter-Speech on Facebook: UK and France, 2016, online abrufbar unter: https://bit.ly/2TmiY9M (zuletzt abgerufen am 15.7.2021); Williams/Burnap, British Journal of Criminology 56 (2016), 211.
[16]        Entwurf eines Gesetzes zur Bekämpfung des Rechtsextremismus und der Hasskriminalität, BT-Drs. 19/18470, S. 1, online abrufbar unter:  https://bit.ly/3BjbNAl(zuletzt abgerufen am 15.7.2021).
[17]    Statt aller Sajuntz, NJW 2020, 583 (583); van Lijnden im Interview mit Hoven, Kritik am Künast-Beschluss, FAZ-Einspruch v. 23.9.2019, online abrufbar unter: https://bit.ly/3zd3KDp (zuletzt abgerufen am 15.7.2021).
[18]    Auf den Beschluss des LG Berlin (MMR 2019, 754) folgten ein Abhilfebeschluss (LG Berlin, K&R 2020, 231) und schließlich auf Künasts (teilweise erfolgreiche) Beschwerde hin ein Beschluss des KG Berlin (MMR 2020, 867).
[19]    LG Berlin, MMR 2019, 754 (756).
[20]        BVerfG, NJW 1991, 95 (96).
[21]        Krey, JR 1995, 221 (224).
[22]    BVerfG, NJW 2020, 2622 (2623); BVerfG, NJW 2020, 2629 (2630); BVerfG, NJW 2020, 2631 (2632); BVerfG, NJW 2020, 2636 (2637).
[23]    BVerfG, NJW 2020, 2622 (2627); BVerfG, NJW 2020, 2631 (2634).
[24]    BVerfG, NJW 2020, 2622 (2626); BVerfG, NJW 2020, 2631 (2634).
[25]        BVerfG, NJW 2020, 2622 (2626); BVerfG, NJW 2020, 2631 (2634).
[26]     Thüringer Landesmedienanstalt, in: Die Medienanstalten (Hrsg.), Jugendschutz- und Medienkompetenzbericht – Der Ton wird härter. Hass, Mobbing und Extremismus. Maßnahmen, Projekte und Forderungen, 2019, S. 103 ff., online abrufbar unter: https://bit.ly/3itHEpp (zuletzt abgerufen am 15.7.2021).
[27]    Thüringer Landesmedienanstalt (Fn. 26), S. 105.
[28]    Schäfer, in: MüKo-StGB, 4. Aufl. (2021), § 130 Rn. 31; Sternberg-Lieben, in: Schönke/Schröder, StGB, 30. Aufl. (2019), § 130 Rn. 3.
[29]    Allerdings muss im Einzelfall genau(er) geprüft werden, ob sich die Äußerung gegen eine Person tatsächlich primär auf die von ihr begangene Straftat oder nicht doch auf ihre Nationalität bezieht.
[30]    Der Begriff wird hier in Anführungszeichen gesetzt, da die Feststellung einer „Lücke“ einen Konsens über die Strafwürdigkeit von Verhalten voraussetzt, der nicht in allen Fällen unterstellt werden kann.
[31]    Bei Beispielen für Hasskommentare handelt es sich stets um Zitate aus dem der Studie zugrunde liegenden Sample.
[32]    Toepel, in: NK-StGB, 5. Aufl. (2017), § 241 Rn. 14.
[33]        Da der Suizid keine Straftat darstellt, sind auch Äußerungen wie „Bring dich um!“ nicht strafbar.
[34]    Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität v. 30.3.2021, BGBl. I 2021, S. 441.
[35]    BT-Drs. 19/18470, S. 1.
[36]    BT-Drs. 19/18470, S. 39.
[37]    Kritisch Oğlakcıoğlu, ZStW  132 (2020), 521 (534 ff.), Steinl/Schemmel, GA 2021, 86 (96 f.); ebenso Engländer, NStZ 2021, 385 (389 f.), der eine teleologische Reduktion befürwortet.
[38]    Kritisch Oğlakcıoğlu, ZStW 132 (2020), 521 (536 ff.); Geneuss, JZ 2021, 286 (286) und Engländer, NStZ 2021, 385 (387).
[39]    Entwurf eines Gesetzes zur Änderung des Strafgesetzbuches – Verbesserung des strafrechtlichen Schutzes gegen sogenannte Feindeslisten, BT-Drs. 19/28678, online abrufbar unter: https://bit.ly/2VVxXZ7 (zuletzt abgerufen am 15.7.2021); Kubiciel, Stellungnahme zu BT-Drs. 19/28678 und BT-Drs. 19/28777, online abrufbar unter: https://bit.ly/3xUwMr0 (zuletzt abgerufen am 15.7.2021).
[40]    Formulierungshilfe der Bundesregierung – Änderungsantrag der Fraktionen der CDU/CSU und der SPD zu BT-Drs. 19/28678, S. 8 f. Dass § 185 StGB nicht einschlägig sein soll, ist allerdings zweifelhaft. Durch die Zusendung des Materials wird eine klare Verbindung zwischen dem Adressaten und der herabwürdigenden Äußerung hergestellt.
[41]    Ekman, European Journal of Communication 34 (2019), 606 (607).
[42]    Krüger/Zapf-Schramm, Media Perspektiven 2 (2019), 44.
[43]    Gardiner, Feminist Media Studies 18 (2018), 592 (600).
[44]    Humprecht/Hellmueller/Lischka, Social Media + Society 6 (2020), 1 (6).
[45]    Geschke/Klaßen/Quent/Richter, in: Institut für Demokratie und Zivilgesellschaft (Hrsg.), #Hass im Netz: Der schleichende Angriff auf unsere Demokratie, 2019, S. 23, online abrufbar unter: https://bit.ly/2W0VrMF (zuletzt abgerufen am 15.7.2021).
[46]     Jane, Misogyny online: A short (and brutish) history, 2016, S. 13; Buntain, in: Golbeck (Hrsg.), Online Harassment, 2018, S. 130.
[47]    Banet-Weiser/Miltner, Feminist Media Studies 16 (2016), 171 (171).
[48]     Jane, Feminist Media Studies 14 (2014), 531 (542).
[49]    Jaki/De Smedt (Fn. 14), S. 18.
[50]    Döring/Mohseni, Communication Research Reports 36 (2019), 254 (261 f).
[51]    Gardiner, Feminist Media Studies 18 (2018), 592 (598).
[52]    Incels steht für involuntary celibates – Männer, die unfreiwillig ohne sexuelle Kontakte leben. Kracher, Incels – Geschichte, Sprache und Ideologie eines Online-Kults, 2020, 11f. führt aus, dass die Incels meinen, sie hätten wegen ihres Mannseins ein „naturgegebenes Recht auf Sex“, was ihnen aber durch die Frauen, die sie nicht attraktiv finden und wegen feministischer Einstellungen nur verachten würden, verwehrt würde. Schließlich könne der „vernichtende[n] Kränkung der „Sexlosigkeit“ […] für Incels nur mit einem Mittel begegnet werden: dem Krieg gegen Frauen, der bis zum Femizid reicht.“
[53]    Jaki/De Smedt/Gwóźdź/Panchal/Rossa/De Pauw, Journal of Language Aggression and Conflict 7 (2019), 240.
[54]    Forschungsgruppe g/d/p in Kooperation mit der Universität Leipzig (Fn. 7), S. 17; vgl. Geschke/Klaßen/Quent/Richter (Fn. 45), S. 23.
[55]    Nadim/Fladmoe, Social Science Computer Review 37 (2019), 1 (7).
[56]    Pew Research Center (Fn. 9), S. 7 f.
[57]    Rheault/Rayment/Musulan, Research & Politics 6 (2019), 1 (1). Im Original: „A seemingly inescapable feature of the digital age is that people choosing to devote their lives to politics must now be ready to face a barrage of insults and disparaging comments targeted at them through social media.”
[58]    Erhardt, „Hasswelle: Kommunalpolitik – Aus Hetze werden Taten“, 2019, online abrufbar unter: https://bit.ly/2Um2EXf (zuletzt abgerufen am 15.7.2021).
[59]    Metz, Zwischen Bürgernähe und Netzhetze – Nutzung von und Einstellungen zu den sozialen Netzwerken in der Politik, 2019, S. 6, online abrufbar unter: https://bit.ly/3zePbz6 (zuletzt abgerufen am 15.7.2021).
[60]        Coe/Kenski/Rains, Journal of Communication 64 (2014), 658 (669).
[61]    Humprecht/Hellmueller/Lischka, Social Media + Society 6 (2020), 1 (6).
[62]    Alle erfassten Facebook-Kommentare werden im Original-Duktus ohne Korrekturen der Rechtschreibung wiedergegeben, mit Ausnahme des in der Überschrift wiedergegebenen Kommentars.
[63]    Vgl. nur Regge/Pege, in: MüKo-StGB, § 193 Rn. 42 ff.
[64]    Krippendorff, Human Communication Research 30 (2004), 411 (429).
[65]    Coe/Kenski/Rains, Journal of Communication 64 (2014), 685 (661).
[66]    Humprecht/Hellmueller/Lischka, Social Media + Society 6 (2020), 1 (5).
[67]    Ziegele/Quiring/Esau/Friess, Communication Research (2018), 1 (15).
[68]    Kopytowska/Krakowiak, Russian Journal of Linguistics 24 (2020), 743.
[69]    Siehe oben II. 1.
[70]    Fleischhack, in: Kaspar/Gräßer/Riffi (Fn. 11), S. 23 (23 ff.); Baldauf/Ebner/Guhl (Fn. 11); Williams/Burnap/Javed/Liu/Ozalp, The British Journal of Criminology 60 (2020), 93.
[71]    Sponholz (Fn.1), S. 91.
[72]    Guenther/Ruhrmann/Bischoff/Penzel/Weber, Social Media + Society 6 (2020), 1; Jaki/De Smedt (Fn. 14); Horsti, New Media & Society 19 (2017), 1140; Hanzelka/Schmidt, International Journal of Cyber Criminology 11 (2017), 143; Bartlett/Krasodomski-Jones; Williams/Burnap, British Journal of Criminology 56 (2016), 211.
[73]    Gräßer, in: Kaspar/Gräßer/Riffi (Fn. 11), S. 153 f.
[74]    Jane (Fn. 46), S. 13; Buntain, in: Golbeck (Fn. 46), S. 130; Banet-Weiser/Miltner, Feminist Media Studies 16 (2016), 171 (171).
[75]    Forschungsgruppe g/d/p in Kooperation mit der Universität Leipzig (Fn. 6), S. 17; vgl. Geschke/Klaßen/Quent/Richter (Fn. 45), S. 23.
[76]    Nadim/Fladmoe, Social Science Computer Review 37 (2019), 1 (10); Pew Research Center (Fn. 9), S. 7 f.
[77]    Williams/Burnap, British Journal of Criminology 56 (2016), 211.
[78]    Bild, Facebook-Seite v. 4.11.2020.
[79]    Hestermann/Hoven, KriPoZ 2019, 127 (129).
[80]    Hierzu ausführlich Hoven/Witting, Das Beleidigungsunrecht im digitalen Zeitalter, NJW 2021, 2397.
[81]    Unter anderem ist immer noch nicht höchstrichterlich geklärt, ob Frauen auch dem Schutz des § 130 StGB unterfallen. Dies bejahend OLG Köln, Urt. v. 9.6.2020 – 1 RVs 77/20.
[82]    Die ebenfalls in Betracht zu ziehende Einführung eines neuen Qualifikationstatbestandes für als Hate Speech zu qualifizierende Beleidigungen, Üble Nachreden und Verleumdungen wurde bereits in einem bayerischen Diskussionsentwurf vorgeschlagen (Diskussionsentwurf des Bayerischen Staatsministeriums der Justiz für ein Gesetz zur nachdrücklichen strafrechtlichen Bekämpfung der Hassrede und anderer besonders verwerflicher Formen der Beleidigung (Stand 4.11.2019), online abrufbar unter: https://bit.ly/3wQEEZd (zuletzt abgerufen am 15.7.2021). Ein ähnlicher Formulierungsvorschlag, der – wohl zu eng – an eine Menschenwürdeverletzung anknüpft, wurde von Großmann, GA 2020, 546 (558 f., 563) unterbreitet.

 

 

Schreiben Sie einen Kommentar

Durch Abschicken des Formulares wird dein Name, E-Mail-Adresse und eingegebene Text in der Datenbank gespeichert. Für weitere Informationen lesen Sie bitte unsere Datenschutzerklärung.

Unsere Webseite verwendet sog. Cookies. Durch die weitere Verwendung stimmen Sie der Nutzung von Cookies zu. Informationen zum Datenschutz

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen.
Wenn Sie diese Website ohne Änderung der Cookie-Einstellungen verwenden oder auf "Akzeptieren" klicken, erklären Sie sich damit einverstanden.

Weitere Informationen zum Datenschutz entnehmen Sie bitte unserer Datenschutzerklärung. Hier können Sie der Verwendung von Cookies auch widersprechen.

Schließen