„Das Phänomen ‚Digitaler Hass’ – ein interdisziplinärer Blick“ – Bericht zu der Online-Tagung der Universität Leipzig

von Wiss. Mit. Hannah Heuser und Wiss. Mit. Alexandra Witting 

Beitrag als PDF Version 

Am 8.7.2021 fand die Online-Tagung „Das Phänomen ‚Digitaler Hass’ – ein interdisziplinärer Blick“ statt.[1] Die Zunahme aggressiver Äußerungen und eine „Verrohung“ der Sprache wird bereits seit Jahren in den Medien thematisiert und stellt neben der (Rechts-)Wissenschaft und der Politik auch die Zivilgesellschaft vor die Frage, wie ein angemessener Umgang mit Hasskommentaren im digitalen Raum aussehen sollte. Um digitalem Hass und Online Hate Speech sachgerecht begegnen zu können, lohnt ein genauerer Blick auf deren Ursachen, Ausprägungen und Folgen.

I. Tagungseröffnung

Begrüßt wurden die rund 90 Gäste zunächst von der Veranstalterin Prof. Dr. Elisa Hoven. Anlass der Tagung war insbesondere der Abschluss des ersten Projektjahres ihres vom BMJV geförderten Forschungsprojektes „Der strafrechtliche Umgang mit digitalem Hass“. Von März 2020 bis Dezember 2022 erforscht sie das Phänomen „Digitaler Hass“, um auf Basis der Erkenntnisse den materiell-rechtlichen und prozessrechtlichen Status Quo zu untersuchen und ggf. Anpassungen zu entwickeln.

Es folgte eine Keynote der Bundesministerin der Justiz und für Verbraucherschutz, MdB Christine Lambrecht, in der sie zugleich auch eine Bilanz ihrer im September auslaufenden Amtszeit zog. Der Kampf gegen Hasskriminalität und digitalen Hass sei darin prägendes Thema gewesen.Lambrecht machte insbesondere drei Gründe aus, warum das Vorgehen gegen digitalen Hass so wichtig ist:

Erstens verletze digitaler Hass Achtungsansprüche wie sie allen Menschen kraft des allgemeinen Persönlichkeitsrechts und dessen Kern, der Menschenwürde, zustehen. Zweitens schaffe er ein Klima der Enthemmung und bereite damit den Nährboden für extremistische Gewalttaten. Zwar müsse man sich vor der Annahme einfacher Ursachen-Wirkungs-Zusammenhänge hüten – die rechtsextremen Verbrechen der jüngeren Vergangenheit, wie die

Ermordung des Kasseler Regierungspräsidenten Walter Lübcke und der Anschlag in Hanau, wiesen allerdings einen deutlichen Bezug zum Hass im Netz auf. Digitaler Hass stelle drittens auch eine Gefahr für den demokratischen Diskurs, der von der freien geistigen Auseinandersetzung der Bürger*innen und vom offenen Kampf der Meinungen lebe, dar. Hassäußerungen im Netz seien häufig politisch motiviert und zielten darauf ab, andere Meinungen zu verdrängen. Diese Wirkung des digitalen Hasses zeige sich auch in einer von Hoven in Auftrag gegebenen Studie[2], in der 42 Prozent der Befragten angaben, aus Sorge vor digitalem Hass auf das Posten eines Beitrags verzichtet oder diesen bewusst vorsichtiger formuliert zu haben. Die Gefahr für die Demokratie werde noch dadurch verschärft, dass der digitale Hass manche Bevölkerungsgruppen häufiger oder intensiver treffe als andere. Denn der weit überwiegende Teil der politisch motivierten Hasspostings stamme aus dem rechtsextremen Spektrum.[3] Betroffen seien insbesondere Bevölkerungsgruppen, die zu den typischen Feindbildern Rechtsextremer zählten, wie u.a. Menschen mit Migrationshintergrund, Menschen mit Behinderung, Juden und Jüdinnen, Muslimas und Muslime und Menschen aus der LGBTQIA*-Community.

Als bisherige Schritte im Vorgehen gegen digitalen Hass nannte Lambrecht zum einen das Netzwerkdurchsetzungsgesetz (NetzDG) und dessen aktuelle Reformen, zum anderen Anpassungen des materiellen Strafrechts, etwa hinsichtlich der Schaffung einer Qualifikation für öffentlich getätigte Beleidigungen, eine Erweiterung der Strafbarkeit der Bedrohung sowie der Billigung von Straftaten. Verabschiedet seien zudem ein neuer Straftatbestand der verhetzenden Beleidigung und des gefährdenden Verbreitens personenbezogener Daten (sog. „Feindeslisten“). Einen Ausblick gab die Ministerin dann auf eine mögliche zukünftige Regelung auf europäischer Ebene – den Digital Services Act. Damit sei es jedoch noch nicht getan. Zum einen bestehe die Notwendigkeit, vermehrt in demokratiefördernde und präventive Projekte zu investieren. Zum anderen verbleibe noch ein erheblicher Forschungsbedarf zum Phänomen „Digitaler Hass“. Gerade aus diesem Grund seien interdisziplinäre Tagungen wie diese wertvoll.

II. Einführung: Hate Speech und digitaler Hass – eine begriffliche Einordnung

Um für die anschließenden Diskussionen eine gemeinsame Grundlage zu schaffen, nahm zum Auftakt der Veranstaltung PD Dr. Liriam Sponholz, die als Medien- und Kommunikationswissenschaftlerin am Deutschen Zentrum für Integrations- und Migrationsforschung (DeZIM) forscht, eine begriffliche Einordnung vor: Hasspostings, digitaler Hass, Hate Speech – was verbirgt sich hinter diesen Bezeichnungen und wie sind sie voneinander abzugrenzen?

Zunächst beschrieb Sponholz, dass zwischen den drei Begriffen zwar eine Familienähnlichkeit im Sinne einer gemeinsamen Schnittmenge bestehe. Gleichzeitig wiesen sie aber auch unterschiedliche Wesensmerkmale – etwa hinsichtlich der Inhalte – auf und bezeichneten daher verschiedene Sachverhalte. Deswegen sei es wichtig, die Begriffe trennscharf voneinander abzugrenzen.

„Hate Speech“ zeichne sich durch die Herabsetzung oder Bedrohung benachteiligter Gruppen aufgrund eines Identitätsfaktors aus. Betroffene würden auch ohne öffentliche politische Partizipation allein aufgrund von ihnen zugeschriebenen Kollektiveigenschaften zur Zielscheibe. „Digitaler Hass“ sei dagegen ein „catch-all-term“, also Oberbegriff, um noch nicht bekannte Facetten zu erforschen. Dadurch entstehe die notwendige Flexibilität, in einer sich ständig verändernden digitalen Umgebung auch neue Erscheinungsformen einzubeziehen.

Abschließend wies Sponholz auf die Gefahren einer ungenauen oder uneinheitlichen Benennung, wie sie derzeit in den verschiedenen wissenschaftlichen Fachgebieten noch vorherrsche, hin: Fasse man bei der gesellschaftlichen Diskussion den Begriff zu weit und lasse man das Merkmal der Gruppenbezogenheit aus, so öffne dies „die Tür für eine politische Instrumentalisierung“. Durch die individualisierte Betrachtung würden Äußerungen gegen Gruppen nicht mehr hinreichend wahrgenommen und Ursachen für Hassäußerungen würden ausgeblendet. Darüber hinaus drohe eine Gleichsetzung grundverschiedener Sachverhalte wie etwa der Verharmlosung des Holocaust mit der sprachlichen Gewalt gegen Rechtsextreme.

Dass eine Abgrenzung der verschiedenen Begrifflichkeiten noch Schwierigkeiten bereitet, zeigte sich auch in der anschließenden ersten Diskussionsrunde. Insbesondere das Merkmal der Gruppenbezogenheit warf in diesem Kontext Fragen auf: Könnte beispielsweise das auf einen konkreten Politiker gerichtete „Bashing“ als Hate Speech identifiziert werden, gesetzt, man geht von einer Gruppe der Politiktreibenden aus? Angemerkt wurde zu dieser Frage einerseits, dass Politiker*innen in aller Regel nicht einer benachteiligten, sondern ganz im Gegenteil zu einer eher privilegierten Gruppe zählten. Andererseits hätten gerade Angriffe auf diese Gruppe Einfluss auf den öffentlichen Diskurs und die Wahrnehmung politischer Ämter. In diesem Zusammenhang wurde auf die verwandte strafrechtliche Fragestellung nach den von § 130 StGB (Volksverhetzung) geschützten Bevölkerungsteilen hingewiesen.

Aus sozialwissenschaftlicher Perspektive – so Sponholz – gebe es (mindestens) drei Ansätze: Zum einen sei dies die Orientierung an „historically oppressed groups“, also historisch unterdrückten Gruppen, wie etwa Frauen und jüdische Menschen. Ein weiterer Ansatz beziehe sich auf durch Gesetze und Verträge geschützte Gruppen, die „protected characteristics“ aufweisen. Ein dritter nehme systematisch diskriminierte Gruppen in den Blick. Bei alledem dürfe nicht aus dem Blick verloren werden, dass nicht alle sozialen Gruppen schützenswert seien; entscheidend sei vielmehr, ob die Gruppe eine Machtposition innehabe und ob diese Machtposition auch im Kontext der Äußerung gelte. 

III. Themenblock 1: Erscheinungsformen von digitalem Hass

Den ersten Themenblock zu Erscheinungsformen digitalen Hasses eröffnete Prof. Dr. Thomas Hestermann, der Journalismus an der Macromedia University of Applied Sciences in Hamburg lehrt. Er stellte eine von ihm in Kooperation mit Hoven durchgeführte Analyse von Facebookkommentaren vor.[4] Sein Ansatz richtete sich dabei auf die Erforschung „digitaler Marktplätze“ anstelle „dunkler Nischen“. Gegenstand der Untersuchung seien deshalb Facebookseiten reichweitenstarker deutscher Massenmedien gewesen.

Eine erste These, dass Hass vornehmlich rechtspopulär bzw. rechtsextrem geprägt ist, konnte nicht bestätigt werden. Von Kommentaren, die sich konkret gegen eine politische Partei richteten, seien am häufigsten die AfD und Bündnis 90/Die Grünen betroffen; andere Parteien würden dagegen kaum genannt. Auffällig sei gewesen, dass sich auch Personen, die sich gegen rechts positionierten, nationalsozialistischer Bilder bedienten, sich etwa die Wiedereröffnung eines Konzentrationslagers für einen  rechtskonservativen Politiker wünschten.

Die These, dass Männer häufiger von digitalem Hass betroffen sind, wurde hingegen bestätigt: Diese seien beinahe doppelt so häufig adressiert worden. Wichtig sei jedoch hinzuzufügen, dass Frauen in anderer, nämlich häufig sexualisierter Weise angegriffen werden.

Bemerkenswert sei aber eine Veränderung der „Hassdichte“, also des Anteils der als Hasskommentare eingestuften Beiträge an dem Gesamtdatensatz: Diese habe sich von 2,6 Prozent im Jahre 2018 auf 0,9 Prozent im Jahre 2020 reduziert. Einschränkend sei hier zu bedenken, dass sich die Untersuchung ausschließlich auf öffentliche Äußerungen auf den genannten Facebookseiten richtete. Dennoch scheine die (straf-)rechtliche Verfolgung und der erhöhte Einsatz von redaktionellen Kontrollmechanismen wie der Moderation und Löschung von Inhalten zu einem Rückgang von (sichtbaren) Hasskommentaren geführt zu haben. Einige Kommentierende würden ausdrücklich Sorgen vor der Sanktionierung ihrer Kommentare äußern, was gleichzeitig auf das Wissen um ein potentiell strafrechtlich relevantes Verhalten schließen lasse.

Die Frage nach den Erscheinungsformen („Welcher Hass?“) stellte auch Jun.-Prof. Dr. Mario Haim, der an der Universität Leipzig die Juniorprofessur für Datenjournalismus innehat, in seiner Inhaltsanalyse politisch ausgerichteter Kommentare bei Online-Medien, Twitter und   YouTube.

Hierbei legte er ein weites Verständnis der hasserfüllten Rede, nämlich die Inzivilität („incivility“), zu Grunde. Ein zentrales Anliegen seiner Analyse sei gewesen, gerade den Hass zu untersuchen, der nach der Moderation durch die Plattformen für das jeweilige Publikum noch sichtbar bleibe. In dieser indirekten Adressierung der mitlesenden Publika, die bei (teil-)öffentlichen Plattformen zu der direkten Adressierung der konkret Betroffenen hinzukomme, sei eine weitere wichtige Perspektive auf das Phänomen zu sehen. Die Medienwirkungsforschung beschäftige sich bereits damit, wie sichtbare Kommentare auf die Rezipierenden wirken. Kommentare anderer Nutzer*innen würden gelesen, um sich selbst über bestehende Meinungen anderer und (mutmaßliche) Meinungsmehrheiten in der Gesellschaft zu informieren. Hierdurch werde wiederum die individuelle Meinungsbildung beeinflusst, wodurch hasserfüllte Rede in einem schleichenden Prozess die „Grenze des Sagbaren“ verschieben könne.

Für die Inhaltsanalyse codierte Haim zunächst manuell 11.226 Kommentare in zehn breit angelegten Kategorien, zu denen unter anderem die Herabwürdigung, Verleumdung oder üble Nachrede, Vulgarität und Abwertung von Ideen und/oder Verhaltensweisen zählten. Anschließend wurde damit ein neuronales Netz trainiert, das letztlich die automatisierte Analyse aller 625.737 Kommentare des Gesamtdatensatzes ermöglichte. Besonders auffallend sei, dass bei allen drei Datensätzen die Abwertung von Ideen und/oder Verhaltensweisen dominierte – eine Form von Despektierlichkeit, die zwar nicht strafrechtlich relevant, aber auch keinem konstruktivem Austausch zuträglich sei. In Anbetracht der Erkenntnisse aus der Medienwirkungsforschung sieht Haim darin eine „sehr unterschwellige, aber konstante Beeinträchtigung […] für den öffentlichen Diskurs“. Ein solches Diskursklima würde dem Ideal des Internets als Ort des grunddemokratischen Meinungsaustausches zuwiderlaufen. Es führe vielmehr dazu, dass sich nur noch wenige am Diskurs beteiligen.

Ergänzt wurde der erste Themenblock mit einem Beitrag über koordinierte Hasskampagnen von Jakob Guhl, der bereits seit einigen Jahren am Institute for Strategic Dialogue in London zu digitalem Hass und Extremismus forscht.

Zu Beginn des Vortrags hob er hervor, dass es sich bei Hate Speech um eine plattformübergreifende Herausforderung handele, der auch nur mit einem möglichst breit aufgestellten Ansatz sinnvoll begegnet werden könne. Denn neben Mainstream-Plattformen wie Twitter und Facebook seien auchalternative Plattformen wie Reddit und 4chan betroffen. Diese trügen jedoch oftmals keine oder geringe rechtliche Verantwortung und verfügten häufig weder über eine vergleichbare Ausstattung zur Moderation noch über strenge Community-Standards.

Zudem sei zu bedenken, dass eine kleine Minderheit an Nutzer*innen disproportional für einen Großteil an Hate Speech im digitalen Raum verantwortlich sei. So habe eine Studie gezeigt, dass 5 Prozent der Nutzer*innen etwa 50 Prozent der Likes von Hass in den Kommentarspalten produzieren.[5]

Anders als Hestermann kam Guhl zu der Überzeugung, dass in Deutschland vor allem Rechtsextremisten an der Verbreitung von Hate Speech beteiligt seien und diese strategisch zur Einschüchterung ihrer politischen Gegner nutzten. Die verschiedenen Plattformen würden zur Mobilisierung und Radikalisierung von Personen und zur koordinierten Verbreitung von Inhalten genutzt. Als Folge sehe auch er eine indirekte Beschränkung der Meinungsvielfalt im digitalen Diskurs.

In der Diskussion konnte der scheinbare Widerspruch der Forschungsergebnisse von Hestermann und Guhl auf die Ausgangsfrage der Tagung nach der begrifflichen Einordnung zurückgeführt werden: Während Guhl in seiner Forschung primär gruppenbezogenen Hass in den Blick nahm und politisch motivierte Kommentare untersuchte, legte die Studie von Hestermann gerade ein weites Verständnis von digitalem Hass zugrunde.

Ob ein Zusammenhang zwischen Hassinhalten und politischer Motivation, wie er auch durch das Bundeskriminalamt (BKA) durch die Einordnung von Hasskriminalität als Unterfall der politisch motivierten Kriminalität vorausgesetzt wird, besteht, wurde jedoch in der Diskussion von Seiten der Strafrechtswissenschaften angezweifelt. Möglich sei auch, dass es sich bei politisch motivierten und hasserfüllten Kommentaren um verschiedene Fallgruppen handele, die lediglich häufig oder regelmäßig zusammenfallen würden, aber dennoch unabhängig voneinander zu bewerten seien.

IV. Themenblock 2: Hassobjekte/Hasssubjekte – Motive der Verfasser*innen und Folgen für Adressat*innen

Im zweiten Themenblock rückten die Hassobjekte und Hasssubjekte in den Vordergrund: Welche Motive haben die Verfasser*innen? Wie erleben Betroffene digitalen Hass und welche Auswirkungen hat er auf ihr Leben?

Zunächst stellten Hannah Heuser und Alexandra Witting die Ergebnisse einer qualitativen Interviewstudie mit Adressat*innen und Verfasser*innen von digitalem Hass vor. Die leitfadengestützten Interviews ermöglichten Einblicke in die Facetten digitalen Hasses.

Hinsichtlich der Erscheinungsformen der Hasskommentare seien insbesondere Herabwürdigungen mit Bezug zu einer Gruppe, die das Gegenüber entindividualisieren, entmenschlichen und ausgrenzen, hervorzuheben. Zudem sei bei Herabwürdigungen gegenüber Frauen auffällig, dass sie insbesondere mit Bezug auf Aussehen und (vermeintlich mangelnde) Intelligenz adressiert würden. Hinzu trete neben die sexualisierte Herabwürdigung auch die Vergewaltigungsfantasie. Bei Bedrohungen, Aufrufen zu oder Billigung von Straftaten oder Gewalt zeige sich, dass die Verfasser*innen geschickte Formulierungen nutzten, um eine Strafbarkeit zu umgehen.

Aus den Gesprächen sei eine Bandbreite verschiedener Reaktionen auf den Erhalt von Hasskommentaren hervorgegangen – von deutlich offensivem Verhalten wie der Veröffentlichung von Kommentaren über Dialogversuche bis hin zu einem eher defensiven Umgang durch Blocken und schließlich dem Rückzug aus sozialen Medien. Letzterer reiche – wie schon von den Vorredner*innen angedeutet – von der Änderung eigener Inhalte über die Meidung sensibler Themen bis zum endgültigen Verlassen der Plattformen. Auch die Interviewstudie zeige damit verschiedene Ausprägungen des Silencing-Effekts, also der Verdrängung von Personen und Meinungen aus dem öffentlichen Diskurs.

Mit Blick auf die Verfasser*innen hätten sich verschiedene Profile herauskristallisiert – Strateg*innen, Initiator*innen, Empörte, „Trolle“ und Ausreißer –, bei denen es sich wohlgemerkt um keine abgeschlossenen Kategorien handele.

Die Strateg*innen zeichneten sich dadurch aus, dass sie – wie schon von Guhl beschrieben – untereinander organisiert handelten und regelrechte Hasskampagnen gegen Einzelpersonen durchführten. Im Unterschied dazu seien die Initiator*innen Personen mit großer Reichweite, die selbst häufig keine Hasskommentare verfassten, sondern sich der reißerischen Darstellung – wie Verkürzung und Verzerrung – bedienten, um so Empörung gegenüber der betroffenen Person oder Personengruppe zu provozieren und ihre „Followerschaft“ zu mobilisieren. Die teils auf diese Weise Empörten fühlten sich dann getriggert und handelten etwa aus Angst oder Wut. Dabei würden Hasskommentare – wie schon von Hestermann beobachtet – widersprüchlicherweise teils auch im „Kampf gegen den Hass“ eingesetzt. Häufig fehle es gänzlich an einem Unrechtsbewusstsein; vielmehr herrsche der Eindruck, dass die Aussagen noch von der Meinungsfreiheit gedeckt seien. Während sog. „Trolle“ gerade das Ziel hätten zu provozieren und Aufmerksamkeit zu generieren, ohne dabei am Diskurs teilhaben zu wollen, stelle sich das Verfassen von Hasskommentaren bei den Ausreißern als „Ausrutscher“ dar, der anschließend bereut werde.

Im Hinblick auf eine angemessene (straf-)rechtliche Behandlung des Phänomens sei insbesondere zu überlegen, ob eine Qualifikation für gruppen- und sexualbezogene Beleidigungen sowie für gemeinschaftlich – etwa im Rahmen eines organisierten Hate Storms – begangene Beleidigungen eingeführt werden sollte. Zudem sei bei der Strafbarkeit von Bedrohungen und der Billigung von Gewalthandlungen weiterer Verbesserungsbedarf angezeigt, da auch nach der  kürzlich erfolgten Reform noch weitere Strafbarkeitslücken bestünden. Schließlich sollte vermehrt auch die Verantwortlichkeit der Initiator*innen in den Blick genommen werden.

Abschließend erscheine sowohl aus Betroffenenperspektive als auch nach Gesprächen mit Verfasser*innen eine Sanktionierung abseits üblicher Geld- und Freiheitsstrafen sinnvoll, die darauf abziele, Täter*in und Opfer zu versöhnen und Einsicht in das begangene Unrecht zu verschaffen. Ein erster Ansatzpunkt könne hier ein vermehrter Einsatz des Täter-Opfer-Ausgleichs sein, wobei jedoch den Besonderheiten des Phänomens „Digitaler Hass“ Rechnung zu tragen sei.

Im folgenden Vortrag ging Prof. Dr. Roger Berger, der den Lehrstuhl für Methodenlehre am Institut für Soziologie der Universität Leipzig innehat, in seiner soziologischen Betrachtung devianten Online-Verhaltens zwei zentralen Fragen nach, die in den vorherigen Vorträgen bereits angeklungen waren: Führen emotionale negative Kommentare tatsächlich eine Meinungsbeeinflussung bei den Leser*innen herbei? Zudem: Verhält sich jemand, der ein Vorurteil äußert, auch abseits der Kommentarspalten diskriminierend?

Zur Beantwortung der ersten Frage diente ein von ihm selbst durchgeführtes Labor-Experiment, bei dem zunächst die Meinung der Proband*innen zu Veganismus/Speziezismus abgefragt wurde. Anschließend wurden diese mit einer Kombination aus negativen und/oder positiven emotionalen (nicht argumentativen) Kommentaren konfrontiert. Überraschenderweise änderte sich die Meinung der Testpersonen dadurch kaum.

Zur Beantwortung der zweiten Fragestellung zog Berger Studien zu rassistischen Einstellungen und zu der Diskriminierung von muslimischen Menschen heran.[6] Diese kamen zu dem Ergebnis, dass die nicht-reaktive Messung von Verhalten nicht mit der (reaktiven, subjektiven) Messung von Einstellungen und Meinungen korreliert. Der Schluss, online erfolgte hasserfüllte Äußerungen setzten sich im analogen Leben fort, dürfe also nicht ohne Weiteres gezogen werden. 

Am Ende des zweiten Themenblocks gab Simon Hurtz, selbständiger Journalist u.a. für die Süddeutsche Zeitung und den Social Media Watchblog, Einblicke in seine journalistische Perspektive auf Hass und Radikalisierung im Internet und berichtete von seinen Erkenntnissen aus Gesprächen mit Nutzer*innen sog. Imageboards.

Anlässlich der rechtsterroristisch motivierten Anschläge in Halle, El Paso, Poway und Christchurch im Jahr 2019, die alle gemeinsam hatten, dass die Täter ausschließlich weiß, jung und männlich waren und sich auf Imageboards wie 4chan oder 8kun radikalisierten, begab sich Hurtz selbst in die Welt dieser Plattformen. Diese böten absolute Anonymität und Redefreiheit und fungierten als Radikalisierungsbeschleuniger. Die Männer, die sich dort aufhielten und von denen er einige persönlich treffen konnte, einte soziale Isolation sowie der Hass auf Frauen, muslimische und jüdische Menschen und andere marginalisierte Gruppen. Während der Einstieg in die Welt der Imageboards harmlos sein könne – nicht alles, was dort zu finden sei, enthalte Hass – führe die Konzeption der Plattformen unweigerlich dazu, dass im Laufe der Zeit eine Konfrontation mit brutalen und hasserfüllten Inhalten ohne vorherige Warnhinweise wahrscheinlich werde. Eine interviewte Person habe berichtet, wie die Live-Mitverfolgung eines Suizids „abstoßend und gleichzeitig faszinierend“ gewesen sei und merklich zur eigenen Abstumpfung geführt habe. Die Begehung fremdgefährdender Taten sei schließlich Folge der nicht mehr vorhandenen Hemmschwelle gewesen. Auch das Bedürfnis in der virtuellen Community die Anerkennung und Bestätigung zu erhalten, die „im echten Leben“ fehle, sei ein wiederkehrendes Motiv. In diesem Zusammenhang müssten sich  auch die Medien ihrer Rolle bewusst werden, da jede Berichterstattung über Terrorismus die Gefahr von Nachahmertaten erhöhe.

In der abschließenden Diskussion bildeten die Unterschiede zwischen den Imageboards, in denen es weniger darum gehe, Personen direkt zu adressieren, als über sie zu sprechen, und Mainstream-Plattformen den Schwerpunkt. Während bei letzteren neben die Betroffenheit der konkret adressierten Gruppe oder Individuen die Beeinträchtigung des freien Meinungsaustausches trete[7], trügen Imageboards eher zur Radikalisierung und vereinfachten Planung von Anschlägen, etwa durch das Teilen von Waffen- und Bombenbauplänen, bei.

In ihrem Schlusswort gab Veranstalterin Hoven einen Ausblick auf die anstehenden Phasen des Forschungsprojekts „Der strafrechtliche Umgang mit digitalem Hass“. Im Hinblick auf das materielle Strafrecht sei – wie insbesondere der Vortrag von Sponholz und die daran anschließende Diskussion gezeigt habe – eine zentrale Herausforderung, wie mit gruppenbezogenen Beleidigungen umzugehen sei.

Die Tagung legte offen, dass weiterer Austausch zwischen den verschiedenen Fachwissenschaften unerlässlich ist, um das Phänomen „Digitaler Hass“ umfassend verstehen und ihm in wirkungsvoller Weise begegnen zu können. Im Spannungsfeld von Kritik an zu starker Identitätspolitik und den besonderen Auswirkungen von Hassrede hat sich das Strafrecht zu fragen, wie weit es den Kreis der strafrechtlich zu schützenden Gruppen ziehen will.

 

[1]      Die Ergebnisse werden in ausführlicher Form in einem Tagungsband publiziert. Die Tagung wurde vom Bundesministerium für Justiz und Verbraucherschutz (BMJV) gefördert.
[2]      Forschungsgruppe g/d/p in Kooperation mit Hoven, Universität Leipzig, Hate Speech – Ergebnisse einer repräsentativen Bevölkerungsumfrage, 2020, online abrufbar unter: https://www.jura.uni-leipzig.de/fileadmin/Fakult%C3%A4t_Juristen/Professuren/Hoven/gdp_Ergebnisse_HateSpeech_Kurzbericht.pdf (zuletzt abgerufen am 23.7.2021).
[3]      Vgl. BKA, Politisch motivierte Kriminalität im Jahr 2020 – bundesweite Fallzahlen, S. 10, online abrufbar unter: https://www.bka.de/SharedDocs/Kurzmeldungen/DE/Kurzmeldungen/210504_PMK2020.html (zuletzt abgerufen am 23.7.2021).
[4]      Hestermann/Hoven/Autenrieth, „Eine Bombe, und alles ist wieder in Ordnung“: Eine Analyse von Hasskommentaren auf den Facebook-Seiten reichweitenstarker deutscher Medien, KriPoZ 2021, 204 ff.
[5]      Kreißel et al., Hass auf Knopfdruck, 2018, online abrufbar unter: https://www.isdglobal.org/wp-content/uploads/2018/07/ISD_Ich_Bin_Hier_2.pdf (zuletzt abgerufen am 23.7.2021).
[6]      LaPiere, Attitudes vs. Actions, Social Forces 1934, 230;  Doleac/Stein, The Visible Hand: Race and Online Market Outcomes, The Economic Journal 2013, 469 sowie eine noch unveröffentlichte Studie von Berger.
[7]      Hierzu ausführlich Hoven/Witting, Das Beleidigungsunrecht im digitalen Zeitalter, NJW 2021, 2397.

 

 

Unsere Webseite verwendet sog. Cookies. Durch die weitere Verwendung stimmen Sie der Nutzung von Cookies zu. Informationen zum Datenschutz

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen.
Wenn Sie diese Website ohne Änderung der Cookie-Einstellungen verwenden oder auf "Akzeptieren" klicken, erklären Sie sich damit einverstanden.

Weitere Informationen zum Datenschutz entnehmen Sie bitte unserer Datenschutzerklärung. Hier können Sie der Verwendung von Cookies auch widersprechen.

Schließen