von Prof. Dr. Frank Zimmermann
Abstract
Der Beitrag befasst sich mit den rechtlichen Rahmenbedingungen für eine weitergehende Kriminalisierung politischer Fake News, plädiert insoweit aber für gesetzgeberische Zurückhaltung. Am ehesten denkbar erschiene eine eng zugeschnittene Norm, die an technische Modalitäten der Erstellung oder Verbreitung von Fake News anknüpft, namentlich im Fall von Deepfakes oder des Einsatzes von Social Bots. Insoweit ist allerdings das bereits bestehende unionsrechtliche Sanktionsregime der KI-Verordnung zu beachten: Es wirft die Frage auf, inwieweit es den Mitgliedstaaten überhaupt noch freisteht, über diesen Rahmen hinauszugehen, und inwieweit die Regelungen in der KI-Verordnung als unionsrechtliche Obergrenze einer Kriminalisierung zu verstehen sind.
The contribution analyses the legal framework for a more extensive criminalisation of political fake news, but in this respect argues for legislative restraint. A narrowly tailored offence that is linked to technical modalities of creating or disseminating fake news, namely in the case of deepfakes or the use of social bots, would seem most conceivable. In this respect, however, European Union law does already provide for a sanctions regime in the AI Act that must be taken into account: It raises the question to what extent Member States are still free to extend their criminal laws beyond the scope of sanctioning provisions in this Regulation and whether the AI Act, thus, sets limits for criminalisation efforts.
I. Einleitung
Die strafrechtliche Debatte rund um Fake News (Falschinformationen, die in Kenntnis ihrer Unwahrheit verbreitet werden[1]) im Allgemeinen und Deepfakes (KI-generierte, täuschend echt wirkende Audio- und Video-Inhalte) im Speziellen konzentrierte sich in Deutschland zunächst auf individualbezogene Fragestellungen. So wurde die Einschlägigkeit verschiedener bereits existierender Straftatbestände des Strafgesetzbuchs, etwa aus dem Bereich der Ehrschutzdelikte, bereits gründlich herausgearbeitet.[2] Auch das Phänomen von mittels Deepfakes gefälschten pornografischen[3] Inhalten wurde rasch Gegenstand strafrechtlicher Erwägungen,[4] die in einem Gesetzentwurf des Bundesrats zur Einführung eines neuen § 201b StGB-E mündeten.[5] Auch der Unionsgesetzgeber hat hierauf mittlerweile reagiert: Die im Jahr 2024 erlassene EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt[6] enthält in ihrem Art. 5 Abs. 1 lit. b eine hierauf bezogene Kriminalisierungsanweisung. Vor diesem Hintergrund wird sich der vorliegende Beitrag auf einen Aspekt des Themas konzentrieren, der zwar für die deutsche Strafrechtswissenschaft kein völliges Neuland mehr darstellt,[7] im geltenden deutschen Strafrecht aber noch keine Regelung erfahren hat: die Nutzung von Fake News zur Manipulation der demokratischen Willensbildung und die möglichen Reaktionen des Demokratieschutzstrafrechts. Namentlich der ausweislich seiner amtlichen Überschrift nicht fernliegende Tatbestand der Wählertäuschung in § 108a StGB erfasst dieses Phänomen nach einhelliger Ansicht nicht.[8] Dies steht in auffälligem Kontrast zu vielfältigen Berichten, wonach in den letzten Jahren Falschnachrichten (Fake News) im Zusammenhang mit demokratischen Wahlen im In- und Ausland massiv zugenommen hätten und insbesondere über soziale Netzwerke eine immense Verbreitung fänden.[9] Für besonderes Aufsehen hat jüngst die Entscheidung des rumänischen Verfassungsgerichts gesorgt, die Präsidentschaftswahl – die völlig überraschend ein zuvor in Umfragen kaum auffälliger rechtsextremer Kandidat gewonnen hatte – zu annullieren: Geheimdienstinformationen hätten nahegelegt, dass dieses Ergebnis auf massive Einflussnahme aus dem Ausland zurückzuführen sei.[10]
Der vorliegende Text wird daher nach einer groben begrifflichen Klärung (unten II.) zunächst Gestaltungsoptionen vorstellen und dabei auch Seitenblicke auf das österreichische Strafrecht und einen presserechtlichen Ordnungswidrigkeitentatbestand werfen (unten III.). Nach einigen verfassungsrechtlichen Erwägungen (unten IV.) soll dann die – bislang wenig beachtete – Bedeutung des Unionsrechts für den Handlungsspielraum des deutschen Gesetzgebers unter die Lupe genommen werden (unten V.). Um Enttäuschungen vorzubeugen, sei gleich zu Beginn betont, dass es nicht das Ziel des Beitrags ist, einen ausformulierten Gesetzesvorschlag zu unterbreiten. Auch Fragen der kriminalpolitischen Zweckmäßigkeit (etwa diejenige nach der realen Gefährlichkeit von Fake News für die Demokratie[11] oder auch den Erfolgsaussichten bei der Ermittlung digitaler Sachverhalte) werden hier[12] nicht im Mittelpunkt stehen. Es soll vielmehr darum gehen, ihnen den Boden zu bereiten, indem rechtliche Rahmenbedingungen für eine etwaige Kriminalisierung herausgearbeitet werden.
II. Begriffliches
Zwar ist gezielte politische Desinformation als solche kein neues Phänomen. Mit der Digitalisierung haben sich jedoch Möglichkeiten aufgetan, unwahre Inhalte sehr viel überzeugender zu gestalten und ihre Verbreitung massiv zu vereinfachen. Der vorliegende Beitrag betrachtet dabei in erster Linie drei Phänomene:
Der Begriff des Deepfakes beschreibt nach der Legaldefinition in Art. 3 Nr. 60 der KI-Verordnung der Europäischen Union[13] „einen durch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und einer Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen würde“. Deepfakes machen eine Unterscheidung von echten und manipulierten Inhalten schon mit den heutigen technischen Möglichkeiten teils ausgesprochen schwer.[14] Dass sie neben dem individuellen Ansehen der abgebildeten Person selbst die staatliche Sicherheit betreffen können, zeigen gefälschte Aufnahmen des ukrainischen Präsidenten Selenskyj, in denen dieser unmittelbar nach dem Beginn des russischen Angriffskriegs die Verteidiger vermeintlich aufforderte, die Waffen niederzulegen.[15] Auch kam es im Kontext des amerikanischen Präsidentschaftswahlkampfes 2024 im Norden New Hampshires offenbar großflächig zu Anrufen, in denen eine KI-generierte Stimme Joe Bidens scheinbar dazu aufforderte, sich nicht an den Vorwahlen der demokratischen Partei zu beteiligen.[16]
Eine Legaldefinition von Social Bots findet sich in der KI-Verordnung nicht (sucht man darin nach „Bots“, wird man nur zu verschiedenen Verbotsvorschriften geleitet). Der Begriff umschreibt im hier interessierenden Sinn[17] Computerprogramme, die in sozialen Netzwerken automatisiert Inhalte erstellen oder verbreiten, mit anderen Nutzern der betreffenden Plattform interagieren und zumindest teilweise das Ziel verfolgen, menschliches Verhalten zu imitieren oder zu beeinflussen.[18] Solche Programme multiplizieren die Reichweite von Fake News und radikalen Ansichten; dadurch können sie bei Nutzern fälschlich den Eindruck erwecken, eine bestimmte Information oder auch inhaltliche Position sei weithin anerkannt. Die Befürchtung, dass es in der Folge zu einer Verschiebung des politischen Diskurses und selbst zur Beeinflussung von Wahlergebnissen kommen könnte, erscheint nicht aus der Luft gegriffen. Namentlich stützte sich das rumänische Verfassungsgericht in seiner bereits erwähnten Entscheidung zur Annullierung der Präsidentschaftswahl auf den Befund, dass im Vorfeld des Urnengangs eine große Zahl zuvor nicht genutzter TikTok-Konten begonnen habe, die Inhalte des rechtsextremen Kandidaten Georgescumassenhaft zu verbreiten.[19]
Der Begriff der Filter Bubbles (auch: Echo Chambers) beschreibt das Phänomen, dass Algorithmen, wie sie ebenfalls in sozialen Netzwerken, auf Videoplattformen und in Internet-Suchmaschinen zum Einsatz kommen, dem Nutzer gezielt Inhalte vorschlagen, die seiner bisherigen Nutzungshistorie entsprechen. Dies ist unproblematisch, wenn infolgedessen bei einem Streamingdienst nur Musiktitel angezeigt werden, die dem bevorzugten Genre angehören. Es kann aber im politischen Kontext auch zu einer einseitigen Informationswahrnehmung führen – man bleibt bildlich gesprochen in der Blase der eigenen Überzeugungen, wird in seinen bereits bestehenden Anschauungen bestärkt und nimmt anderslautende Deutungen nicht mehr zur Kenntnis. Es lässt sich dadurch befürchten, dass Wählerinnen und Wähler mit weniger Widerspruch konfrontiert werden und die Chance verlieren, konträre Positionen bei der eigenen Willensbildung einzubeziehen.
III. Gestaltungsoptionen für eine strafrechtliche Regelung
Bevor die rechtlichen Rahmenbedingungen näher thematisiert werden, soll zunächst abstrakt skizziert werden, welche Gestaltungsoptionen der Strafgesetzgeber überhaupt hat: Es existiert eine Vielzahl von Stellschrauben, mittels derer er den Anwendungsbereich eines neuen Straftatbestands bestimmen kann. Je nachdem, welche davon betätigt werden und wie stark man an ihnen dreht, wird eine neue Vorschrift den Bereich des Strafbaren enger oder weiter ziehen.
1. Denkbare Anknüpfungspunkte für eine Kriminalisierung
Eine erste Frage, die der Gesetzgeber sich stellen müsste, ist, für welchen Lebensbereich gegebenenfalls eine weitergehende Kriminalisierung von Fake News angestrebt wird. Soll es etwa um Falschinformationen gehen, die die Intimsphäre von Einzelpersonen (wie im Fall manipulierter pornografischer Abbildungen), das Wirtschaftsleben (etwa bei unzutreffenden kursrelevanten Informationen über eine börsennotierte Aktiengesellschaft), die Rechtspflege (etwa bei falschen Nachrichten über die Begehung einer Straftat) oder – was hier besonders interessiert – die demokratische Willensbildung betreffen? Mit dieser Entscheidung für einen bestimmten Kriminalisierungssektor überschneidet sich partiell die Frage nach den gesetzlich vorauszusetzenden Folgen: Soll eine neue Strafnorm die Verursachung eines bestimmten Erfolgs erfordern, etwa dass die Reputation einer konkreten Einzelperson beeinträchtigt, der Kurswert einer Aktie geschmälert oder eine menschliche Entscheidung anders getroffen wird – insbesondere eine Wahlentscheidung? Soll auf ein solches Tatbestandsmerkmal, das erwartbarerweise im Hinblick auf die erforderliche Kausalität des tatbestandlichen Verhaltens für den Erfolgseintritt Nachweisprobleme aufwerfen wird, verzichtet und stattdessen ein (abstraktes) Gefährdungsdelikt geschaffen werden?
Eine weitere zentrale Stellschraube betrifft das von der Norm erfasste Verhalten, also die Tathandlung: Soll es um das Erzeugen oder das Verbreiten von unwahren Inhalten gehen? Insoweit wäre auch zu entscheiden, ob typische Kommunikationsverhalten in sozialen Medien wie das Teilen oder das „Liken“ von Inhalten einer dritten Person für eine Strafbarkeit genügen soll.[20] Denkbar wäre es auch, an die Ausgestaltung eines Programms, einschließlich der Einstellung eines Algorithmus, anzuknüpfen. Neben dieser objektiven Verhaltenskomponente wären auch die subjektiven Anforderungen an das Handlungsunrecht zu bestimmen – insbesondere, ob zumindest partiell ein gesteigerter Vorsatzgrad verlangt werden soll.
In personeller Hinsicht wäre zu klären, welche Akteure eine Neuregelung in den Blick nehmen soll – soll ein Jedermannsdelikt geschaffen werden, welches an das Verhalten einer beliebigen Einzelperson abstellt? Soll es alternativ um Personen gehen, für die sich strengere Verhaltensmaßstäbe etablieren lassen, beispielsweise die Betreiber von sozialen Netzwerken und Internet-Suchmaschinen oder diejenigen, die eine Deepfake-Anwendung auf den Markt bringen? Einen weiteren Ansatz, der in diese Richtung zielt, hat Schünemann formuliert: Ein neuer Straftatbestand könnte als Sonderdelikt ausgestaltet werden, das nur durch Amtsträger oder bestimmte Angehörige der journalistischen Berufe begangen werden kann.[21]
In technologischer Hinsicht müsste geklärt werden, ob gegebenenfalls nur an bestimmte, besonders risikoträchtige Anwendungen angeknüpft werden soll – beispielsweise nur an das Herstellen oder Verwenden von Deepfakes oder von Social Bots[22] in sozialen Netzwerken. Ebenso ließe sich andenken, dass eine Neuregelung die Konfiguration von Algorithmen in den Blick nimmt – diese sind wie gesehen häufig so eingestellt, dass sie Präferenzen der Nutzer erkennen und ihnen diesen Präferenzen entsprechende Inhalte (Produkte, Videos, Posts) oder Kontakte vorschlagen. Für bestimmte Bereiche wie die politische Ausrichtung (daneben wäre z.B. auch ein religiöses Bekenntnis oder die sexuelle Orientierung denkbar) könnte eine neue Regelung das Auswerten der Nutzerpräferenzen untersagen und womöglich mit Strafe bedrohen.
2. Inspirierende (?) Seitenblicke
a) § 264 des österreichischen Strafgesetzbuchs
Bereits recht früh wurden in der deutschen Debatte um eine Kriminalisierung politischer Fake News rechtsvergleichende Blicke nach Österreich geworfen:[23] Dort existiert mit § 264 öStGB[24] ein Straftatbestand, der die Verbreitung falscher Nachrichten bei einer Wahl oder Volksabstimmung pönalisiert. Anders als bei § 108a StGB handelt es sich nicht um ein Erfolgs-, sondern um ein abstraktes Gefährdungsdelikt,[25] das die bloße Eignung einer Falschmeldung zur Beeinflussung des Abstimmungsverhaltens genügen lässt. Folglich ist ein – im deutschen Recht bei § 108a StGB problematischer[26] – Nachweis für die Kausalität der Tathandlung für eine bestimmte Wahlentscheidung einer konkreten Einzelperson[27] entbehrlich. Zudem erfasst die Vorschrift auch Falschnachrichten, die auf das Erzeugen von Motivirrtümern hinsichtlich der Stimmabgabe abzielen, wohingegen ihr deutsches Pendant primär Erklärungsirrtümer in den Blick nimmt und einen Motivirrtum nur in dem speziellen Fall für beachtlich erklärt, dass dieser einen Wähler dazu bringt, gegen seinen Willen nicht zu wählen.[28] Vorausgesetzt wird eine öffentliche Tatbegehung, namentlich auch eine solche über soziale Medien und allgemein das Internet.[29] Um übermäßige Eingriffe in den Prozess der politischen Meinungsbildung zu vermeiden, soll § 264 öStGB nur Tatsachenbehauptungen („Informationsangaben“), nicht aber übertriebene Wahlversprechen oder Wahlkampfpolemik erfassen.[30] Allerdings zeigen das Erfordernis der Tatbegehung zu einem Zeitpunkt, wenn eine Gegenäußerung nicht mehr wirksam verbreitet werden kann, und die Qualifikation für die Begehung mittels Urkunden in § 264 Abs. 2 öStGB, dass auch der österreichische Tatbestand nicht auf die digitale Welt zugeschnitten ist.[31] Dementsprechend scheint er bei unseren Nachbarn ungeachtet der auch dort vorkommenden Fake News in der Praxis bislang keine nennenswerte Rolle zu spielen.[32] Er dürfte sich daher allenfalls mit beträchtlichen Modifikationen als Modell für eine Neuregelung eignen.
b) Der Ordnungswidrigkeitentatbestand in Art. 13 Abs. 1 Nr. 4 des bayerischen Pressegesetzes
Im bayerischen Landespressegesetz findet sich in Art. 13 Abs. 1 Nr. 4 ein Ordnungswidrigkeitentatbestand, der denjenigen mit Geldbuße bedroht, der „wider besseres Wissen den Abdruck einer in wesentlichen Punkten unwahren Darstellung oder Gegendarstellung erwirkt.“ Die Verfolgung ist nach S. 2 der Vorschrift von einem Antrag des Betroffenen, des Redakteurs oder des Verlegers abhängig. Daran zeigt sich, dass es in dieser Norm nicht in einem allgemeineren Sinn um den Schutz der öffentlichen Informationsversorgung geht, sondern um das Ansehen von Individualpersonen oder doch immerhin des zur Publikation genutzten Mediums. Hierin und in dem Merkmal des Erwirkens klingt – vergleichbar dem Bewirken in § 271 StGB[33] – an, dass der Landesgesetzgeber jedenfalls nicht in erster Linie Personen adressieren wollte, die selbst etwas publizieren,[34] sondern an Personen gedacht haben dürfte, die jenen wissentlich unzutreffende Informationen zutragen oder auf andere Weise kausal für den Abdruck einer falschen Darstellung werden. Hierin lässt sich ein rudimentärer Fake-News-Tatbestand sehen. Allerdings dürfte sich die Vorschrift aus mehreren Gründen kaum als Vorbild für eine kriminalstrafrechtliche Neuregelung eignen: Neben der bedenklich unbestimmten Formulierung „in wesentlichen Punkten“ erscheint der Zuschnitt auf althergebrachte gedruckte Medien für das digitale Zeitalter gänzlich unpassend. Ferner mag es in einem Mediensystem mit den klassischen Gatekeepern plausibel erschienen sein, als Tathandlung auf ein Erwirken abzustellen – in der digitalen Medienlandschaft, in der jede(r) mit selbst erstellten Inhalten große Reichweiten erzielen kann, hat dieser Ansatz seine Berechtigung verloren. Ebenso bedürften die subjektiven Anforderungen an ein Erwirken der Präzisierung: Sollte hierfür entsprechend der herkömmlichen Vorsatzdogmatik dolus eventualis ausreichen, wäre ein solcher Tatbestand rasch bei jeder falschen Mitteilung eines skandalträchtigen Vorgangs einschlägig, sofern nur damit zu rechnen ist, dass er von den (sozialen) Medien aufgegriffen werden wird. Zuletzt scheint auch dieses Delikt in der Praxis bedeutungslos zu sein; eine Juris-Recherche ergab hierzu keinen einzigen Treffer aus der Rechtsprechung.
IV. Verfassungsrechtlicher Rahmen
Aus einer innerstaatlichen deutschen Sicht wird der rechtliche Rahmen für eine etwaige Kriminalisierung von Fake News zuvörderst durch die Grundrechte des Art. 5 GG gesetzt. Im Folgenden sollen auf diese verfassungsrechtliche Debatte nur einige Schlaglichter geworfen werden.
1. Meinungsfreiheit, Art. 5 Abs. 1 S. 1 GG
Was zunächst die Meinungsfreiheit gem. Art. 5 Abs. 1 S. 1 GG angeht, ist daran zu erinnern, dass sie zwar im Ausgangspunkt nur Stellungnahmen mit wertendem Charakter schützt.[35] Zum einen aber ist schon die Abgrenzung von Tatsachen und Werturteilen, wie von den §§ 185 ff. StGB hinlänglich bekannt ist,[36] keineswegs immer eindeutig;[37] es handelt sich mit anderen Worten dabei selbst um einen wertenden Akt. Zum anderen umfasst der Schutzbereich der Meinungsfreiheit auch solche Tatsachenäußerungen, die der Bildung einer Meinung dienen.[38] Das BVerfG nimmt insoweit allerdings eine wichtige – im Schrifttum nicht ohne Kritik gebliebene[39] – Einschränkung vor: „Was dagegen nicht zur verfassungsmäßig vorausgesetzten Meinungsbildung beitragen kann, ist nicht geschützt, insbesondere die erwiesen oder bewußt unwahre Tatsachenbehauptung.“[40] Dies lässt sich so lesen, als sei eine Pönalisierung von Fake News verfassungsrechtlich vergleichsweise unproblematisch. Wenn mit der Formulierung „erwiesen oder bewußt unwahr“ wirklich zwei alternative Kriterien gemeint sein sollten, würde das sogar bedeuten, dass die unvorsätzliche – also fahrlässige – Behauptung falscher Tatsachen keinen verfassungsrechtlichen Schutz genösse, solange die Unwahrheit nur objektiv erwiesen ist. Allerdings hat das BVerfG klargestellt, dass die so umschriebene Sorgfaltspflicht dort eine Grenze findet, wo die „Richtigkeit einer Tatsachenbehauptung im Zeitpunkt der Äußerung noch ungewiß ist und sich nicht binnen kürzester Zeit aufklären lässt.“[41] Zudem sei darauf Bedacht zu nehmen, dass eine Wahrheitspflicht und ihre Absicherung mittels Sanktionen nicht zu einer Lähmung speziell der Presse führten.[42] Diese Aussage dürfte sich auf die Meinungsfreiheit übertragen lassen[43] und beschreibt bereits das heute meist als „chilling effect“ bezeichnete Phänomen.[44] Abgeleitet wird hieraus, dass Art. 5 Abs. 1 GG erst bei einer grob fahrlässigen Missachtung der Wahrheitspflicht keinen Schutz mehr biete.[45] Aus einer strafrechtlichen bzw. kriminalpolitischen Sicht ließe dies dem Gesetzgeber freilich immer noch massiven Spielraum für eine Kriminalisierung. Inwieweit sich aus der Rechtsprechung des EGMR, der unter Art. 10 EMRK grundsätzlich in weitem Umfang Werturteile ebenso wie Tatsachen fasst,[46] ein weitergehender Schutz auch unwahrer Tatsachenbehauptungen ergibt, wird nicht einheitlich beurteilt.[47] Jedenfalls die Leugnung historisch feststehender Tatsachen soll aber auch dem EGMR zufolge keinen grundrechtlichen Schutz genießen.[48]
Wollte man deshalb dem Strafgesetzgeber eine weitergehende Kriminalisierung zubilligen, so erschiene es doch in der Sache fraglich, ob ein solcher Schritt den heutigen Diskursbedingungen gerecht würde: Selbst was vor einiger Zeit als erwiesenermaßen wahr gegolten hätte, scheint heute eine große Zahl von Menschen nicht mehr zu erreichen – man denke nur an das Märchen vom angeblichen „Wahlsieg“ Donald Trumps im Jahr 2020. Vor diesem Hintergrund wäre zu befürchten, dass eine Neuregelung, welche den im Sinne des obigen Zitats weit verstandenen verfassungsrechtlichen Rahmen komplett ausnutzt, zu einer Massenkriminalisierung führen würde, die das Strafjustizsystem völlig überfordern müsste.[49] Nicht zu unterschätzen wäre auch die Gefahr, dass sich die betroffenen Personen in diesem Fall noch mehr an den Rand gedrängt fühlen und sich weiter radikalisieren. Womöglich würde mit einer derart weitreichenden Neuregelung sogar ein Präzedenzfall geschaffen, der unter anderen politischen Rahmenbedingungen missbraucht werden könnte. Selbst wenn man eine solche Regelung also grundrechtlich möglicherweise noch für zulässig halten mag: Eine kluge, kriminalpolitisch überzeugende Regelung wäre sie sicher nicht. Jedenfalls soweit es um das Strafrecht geht, müsste vielmehr der Ultima-ratio-Grundsatz zur Geltung gebracht werden. Mag also etwa das leichtfertige Verbreiten erwiesenermaßen falscher Tatsachen auch grundrechtlich nicht geschützt sein, so sollte es doch längst noch nicht strafbar sein.
Die Argumentationslast dürfte sich indes im Hinblick auf die hier besonders interessierenden digitalen Phänomene partiell verschieben: Deepfakes sind wesentlich mehr als schlichte inhaltlich unzutreffende Tatsachenbehauptungen, weil sie zusätzlich einen gefälschten Beweis für die – vermeintliche – Wahrheit ihres Inhalts anbieten. Sie machen sich den menschlichen Impuls zunutze, wonach man das selbst Gesehene und Gehörte glauben dürfe, und haben insofern ein deutlich gesteigertes Irreführungspotenzial. Social Bots erwecken den falschen Eindruck, ein bestimmter Inhalt sei von einer natürlichen Person geteilt, kommentiert (usw.) worden, sie gaukeln aber außerdem vor, dass die betreffende Sichtweise weit verbreitet sei. Ihnen wohnt daher ebenfalls ein Element der Täuschung inne, das über den falschen Inhalt der Nachricht hinausgeht. Im Hinblick auf Echo Chambers ist zwar zu betonen, dass es nach h.M. auch eine negative Meinungsfreiheit gibt, wonach man sich keine eigene Meinung bilden und sich eine fremde Meinung nicht zu eigen machen muss.[50] Für die analoge Welt wird man hieraus ableiten können, dass es ein Recht darauf gibt, am heimischen Küchentisch von einer Zwangsbeglückung mit abweichenden Ansichten verschont zu bleiben und sich in die Blase der eigenen Anschauungen verkriechen zu dürfen. Im digitalen Raum aber lässt sich zum einen schon bezweifeln, ob der Vergleich mit der heimischen Privatsphäre überhaupt passt und nicht vielmehr eine Parallele mit öffentlichen Orten zu ziehen ist – im Wirtshaus hat der Gast gerade keinen Anspruch darauf, dass politische Stellungnahmen am Nachbartisch unterbleiben. Zum anderen sorgt der zur Anwendung kommende Algorithmus dafür, dass sich Nutzer durch das eigene Surfverhalten ihre Bubble (meist) unbewusst selbst schaffen. Dementsprechend sollte eine Regulierung, die es den Betreibern von Algorithmen aufgibt, bei der Analyse des Nutzerverhaltens politische Anschauungen außer Betracht zu lassen oder in gewissem Umfang für eine Konfrontation mit abweichenden politischen Ansichten zu sorgen, rechtlich möglich sein.
2. Pressefreiheit, Art. 5 Abs. 1 S. 2 GG
Neben der Meinungsfreiheit müsste eine etwaige Neuregelung besonders die Pressefreiheit gem. Art. 5 Abs. 1 S. 2 GG berücksichtigen, da jeder Kriminalisierung von Fake News die Gefahr inhärent wäre, die Freiheit der Berichterstattung empfindlich einzuschränken. Was den Schutzbereich der Pressefreiheit angeht, wird – ähnlich wie bei der Meinungsfreiheit – die Grenze bei der Verbreitung bewusst oder offensichtlich unwahrer Tatsachen gesehen.[51] Sollte das Kriterium der Offensichtlichkeit rein objektiv zu verstehen sein und eine neue Strafvorschrift im Hinblick auf die Unwahrheit der berichteten Tatsache subjektiv lediglich Eventualvorsatz (oder gar nur bewusste Fahrlässigkeit, s.o.) verlangen, könnten politische Skandale ohne Angst vor strafrechtlichen Sanktionen nur noch bei Gewissheit hinsichtlich der Wahrheit des Berichts publik gemacht werden. Nicht unterschätzt werden sollte zudem die Tragweite der strafprozessualen Ermittlungsbefugnisse, sobald nur ein entsprechender Verdacht besteht. Diese Bedenken gegen einen allgemeinen Fake-News-Tatbestand erscheinen bei Deepfakes, Social Bots und Filter Bubbles wiederum weniger durchschlagend, da jedenfalls deren eigenhändiger und wissentlicher Einsatz journalistischen Pflichten ohnehin gravierend widersprechen dürfte. In Rechnung zu stellen wäre indes ein gewisser Dominoeffekt, den eine neue Strafnorm im Verbund mit Normen wie Art. 12 Abs. 2 des Bayerischen Pressegesetzes haben könnte. Nach dieser Vorschrift ist für den verantwortlichen Redakteur, Verleger, Drucker oder Verbreiter die Mitwirkung an dem Erscheinen eines Druckwerks mit strafbarem Inhalt bereits bei Fahrlässigkeit mit Strafe bedroht (allerdings nur, wenn der „Vormann“ nicht selbst zur Verantwortung gezogen werden kann, S. 2). Wäre also das Inumlaufbringen einer falschen Nachricht nach einem neuen Fake-News-Tatbestand prinzipiell für den geistigen Urheber strafbar – und sei es auch nur bei gesteigertem Vorsatzgrad –, könnte dies Konsequenzen für Journalisten haben, welche die betreffende Nachricht publizieren. Sollte der Gesetzgeber einem solchen Vorhaben nähertreten wollen, wäre er daher gut beraten, zugleich explizit zu regeln, wie sich Medienschaffende strafrechtlich exkulpieren können.
3. Kunstfreiheit, Art. 5 Abs. 3 S. 1 GG
Zuletzt ist noch eine kurze Bemerkung zur Kunstfreiheit angezeigt, die namentlich für die Erstellung und Verbreitung von Deepfakes eine Rolle spielen kann: Selbstverständlich darf eine etwaige neue Strafvorschrift machtkritische Satire nicht unmöglich machen. Anders als bei der Meinungs- und Pressefreiheit erscheint insoweit auch das spezielle technische Mittel nicht von vornherein weniger schutzwürdig. Dies erkennt Art. 50 Abs. 4 S. 3 der europäischen KI-Verordnung an, wonach die grundsätzliche Transparenzpflicht bei der Erstellung von Deepfakes (dazu sogleich) eingeschränkt wird, sofern „der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms [ist].“ Eine etwaige Neuregelung auf nationaler Ebene müsste daher zumindest Auslegungsspielräume eröffnen, mit denen der Kunstfreiheit Geltung verschafft werden kann. Allerdings stellt die Kunstfreiheit keine absolute Grenze für eine Pönalisierung dar: Das BVerfG hat wiederholt anerkannt, dass sie auch zugunsten von widerstreitenden Verfassungsgütern eingeschränkt werden kann.[52] Die dann erforderlich werdende Abwägung dürfte bei einem Deepfake, welches im Hinblick auf eine bevorstehende Wahl in die Irre führt, aber eher zugunsten einer Strafbarkeit ausfallen als bei satirisch überspitzter Kritik durch die Verächtlichmachung staatlicher Symbole, wie sie bei den genannten Entscheidungen des BVerfG in Rede stand.
V. Unionsrechtlicher Rahmen
Jedenfalls soweit sich ein etwaiger neuer Tatbestand auf technische Phänomene wie Deepfakes, Social Bots und Filter Bubbles konzentrieren würde, stehen die angesprochenen Grundrechte einer Kriminalisierung politischer Fake News somit nicht grundsätzlich im Weg. Es stellt sich dann aber eine weitere Frage, die – soweit ersichtlich – bislang nicht näher erörtert worden ist: Inwieweit ergeben sich aus der mittlerweile verabschiedeten KI-Verordnung der Europäischen Union Schranken für die mitgliedstaatlichen Strafgesetzgeber? Als Ausgangspunkt gilt es festzustellen, dass, während die kriminalpolitische Debatte in Deutschland noch in vollem Gange ist, der Unionsgesetzgeber bereits Fakten geschaffen hat. Die KI-Verordnung enthält nämlich eine Reihe von sanktionsbewehrten Verhaltensnormen, die im Hinblick auf politische Fake News relevant werden könnten. Ohne Anspruch auf Vollständigkeit:
- Art. 5 Abs. 1 verbietet verschiedene Arten des KI-Einsatzes, darunter den Einsatz näher beschriebener, absichtlich manipulativer oder täuschender Techniken (lit. a). Hierunter könnten prinzipiell auch KI-Systeme subsumiert werden, die Wahlentscheidungen beeinflussen sollen. Allerdings setzt die Vorschrift weiter voraus, dass in der Folge von natürlichen Personen eine Entscheidung getroffen wird, die sie anderenfalls nicht getroffen hätten – es ist also ein Kausalitätsnachweis erforderlich –, und diese Entscheidung muss zumindest zur Gefahr eines erheblichen Schadens geführt haben. Liegen diese Voraussetzungen vor, sieht Art. 99 Abs. 3 die Verhängung einer Geldbuße von bis zu 35 Millionen Euro oder (bei juristischen Personen) alternativ 7 % des gesamten weltweiten Jahresumsatzes im vorausgegangenen Geschäftsjahr vor.
- Nach Art. 50 Abs. 1 der KI-Verordnung muss der Anbieter eines KI-Systems, das für die direkte Interaktion mit Menschen bestimmt ist, gewährleisten, dass diese darüber informiert werden, dass sie mit einer KI interagieren. Dies dürfte grundsätzlich bei Social Bots relevant werden, wie sie in sozialen Netzwerken zum Einsatz kommen. Allerdings beschränkt sich die Regelung auf den Anbieter, also nach Art. 3 Nr. 3 der KI-Verordnung auf die Person, die ein KI-System entwickelt und in Verkehr bringt oder die es unter ihrem eigenen Namen oder ihrer Handelsmarke in Betrieb nimmt. Da Social Bots aber wie menschliche Kommunikationspartner agieren, treten sie nicht unter dem Namen oder der Handelsmarke desjenigen auf, der sie einsetzt – bedeutsam werden könnte die Norm aber immerhin für denjenigen, der Bot-Programme vertreibt, welche anschließend von den Abnehmern „personalisiert“ werden können.
- Noch interessanter für die hier behandelten Themen ist Art. 50 Abs. 4 der KI-Verordnung, der sich mit KI-Systemen beschäftigt, die Deepfakes erstellen: Deren Betreiber muss offenlegen, dass die betreffenden Inhalte künstlich erzeugt oder manipuliert wurden. Als Betreiber gilt dabei gem. Art. 3 Nr. 4 auch eine natürliche Person, „die ein KI-System in eigener Verantwortung verwendet, es sei denn, das KI-System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet“. An der letztgenannten Ausnahmeklausel erscheint diskutabel, was eine „persönliche“ Nutzung ausmacht. Zu denken sein dürfte dabei in erster Linie an Werke, die nur eigenen Zwecken dienen, etwa eine aus Jux erstellte Videomanipulation. Sobald ein Inhalt aber dafür gedacht ist, breit in Umlauf gebracht zu werden – wie bei Deepfakes, die eine politische Falschnachricht untermauern sollen –, dürfte ein persönliches Verwenden zu verneinen sein. Für Verstöße gegen diese Norm droht Art. 99 Abs. 4 lit. g ein Bußgeld von bis zu 15 Millionen Euro oder (bei juristischen Personen) alternativ bis zu 3 % des gesamten weltweiten Jahresumsatzes im vorausgegangenen Geschäftsjahr an.
Bemerkenswert ist daher zunächst, dass die KI-Verordnung inhaltlich vollständige und unmittelbar anwendbare Sanktionstatbestände vorsieht. Aus der Sicht der Mitgliedstaaten stellt sich die Frage, ob dieses unionsrechtliche Sanktionsregime als abschließend gedacht ist – mit der Folge, dass sie weitergehende Strafnormen gar nicht mehr erlassen könnten. Bedenkt man, dass die KI-Verordnung insgesamt dem Ziel dient, innerhalb der Union verlässliche Normen für KI-Entwickler zu schaffen und damit Rechtssicherheit im Binnenmarkt herzustellen, erscheint diese Frage gar nicht so fernliegend: In Erwägungsgrund Nr. 1 heißt es, die „Verordnung gewährleist[e] den grenzüberschreitenden freien Verkehr KI-gestützter Waren und Dienstleistungen, wodurch verhindert [werde], dass die Mitgliedstaaten die Entwicklung, Vermarktung und Verwendung von KI-Systemen beschränken, sofern dies nicht ausdrücklich durch diese Verordnung erlaubt wird.“ Dies entspricht ganz der klassischen Logik der Harmonisierung im Binnenmarkt: Ist das unionsrechtlich festgelegte Schutzniveau beachtet, muss das fragliche Verhalten in der ganzen Union legal sein.[53] Speziell für Binnenmarkt-Verordnungen hat diesen Gedanken – anhand der Verordnung über Marktmissbrauch[54] – auch schon Mitsilegas formuliert.[55]
Nun gilt dies jedoch nur, wenn der betreffende Unionsrechtsakt eine strengere mitgliedstaatliche Regelung tatsächlich sperren soll und keine Öffnungsklauseln vorsieht. In der KI-Verordnung findet sich eine solche Regelung, deren Aussage aber nicht eindeutig ist. So heißt es in Art. 50 Abs. 6, die in diesem Artikel festgelegten Pflichten „berühr[t]en nicht andere Transparenzpflichten, die im Unionsrecht oder dem nationalen Recht für Betreiber von KI-Systemen festgelegt sind.“ Daraus lässt sich der Schluss ziehen, dass nationales Recht lediglich weitergehende Pflichten im Hinblick auf die Offenlegung des KI-Einsatzes etablieren, nicht aber beispielsweise bestimmte Nutzungsformen von Deepfakes generell verbieten und mit Strafe bedrohen darf. Einen indirekten Fingerzeig mag man ferner in Art. 99 Abs. 7 lit. c. erblicken, der bestimmt, dass bei der Bemessung der Geldbuße zu berücksichtigen sei, „ob demselben Akteur bereits von anderen Behörden für Verstöße gegen das Unionsrecht oder das nationale Recht Geldbußen auferlegt wurden, wenn diese Verstöße auf dieselbe Handlung oder Unterlassung zurückzuführen sind, die einen einschlägigen Verstoß gegen diese Verordnung darstellt“. Wären nationale Sanktionsnormen für Verhaltensweisen, die (auch) gegen die Verordnung verstoßen, pauschal unzulässig, würde der hierauf bezogene Teil der Vorschrift keinen Sinn ergeben. Zweifelhaft erscheint an dieser Regelung, weshalb sie ausschließlich auf Geldbußen und nicht auch auf kriminalstrafrechtliche Sanktionen Bezug nimmt, die wegen desselben Verhaltens verhängt wurden. Dies mag man sich auf den ersten Blick damit erklären, dass dann schon nach dem unionsrechtlichen Doppelbestrafungsverbot (Art. 50 Grundrechtecharta) ein nochmaliges Verfahren unzulässig wäre. Allerdings gilt dies auch nach der Verhängung administrativer Sanktionen, sofern diese im Sinne der Engel-Entscheidung des EGMR[56] in einem europäischen Sinn bereits als strafrechtliche anzusehen wären.[57] Die Zulässigkeit kriminalstrafrechtlicher Sanktionsnormen der Mitgliedstaaten lässt sich daher auf Art. 99 Abs. 7 lit. c kaum stützen. Zugleich enthält die KI-Verordnung – anders als etwa die bereits genannte Marktmissbrauchsverordnung (Art. 30) – auch keinen allgemeinen Vorbehalt zugunsten des mitgliedstaatlichen Strafrechts. Folglich erschiene eine Kriminalisierung von Deepfakes, welche die in der Verordnung angelegten Verhaltensvorschriften verschärfen und nicht lediglich Transparenzpflichten umfassen würde, als unionsrechtlich bedenklich.
VI. Zusammenfassung in Thesen
- Unter engen Voraussetzungen erscheint eine Sanktionierung von Fake News prinzipiell als verfassungsrechtlich zulässig. Namentlich gilt dies für Fake News zur Manipulation der demokratischen Willensbildung, die durch technische Mittel (Deepfakes, Social Bots, Konfiguration von Algorithmen, die zu Filter Bubbles führt) verstärkt werden. Zur Vermeidung von „chilling effects“ sollte ein solcher Tatbestand im Hinblick auf die Unwahrheit der Nachricht aber gesteigerte Anforderungen an die subjektive Tatseite stellen (namentlich in Gestalt eines sicheren Wissens). Außerdem wären Exkulpationsregeln für Angehörige journalistischer Berufe und die Verwendung auslegungsfähiger Tatbestandsmerkmale zur Vermeidung von Konflikten z.B. mit der Kunstfreiheit ratsam.
- Dass eine Sanktionierung verfassungsrechtlich zulässig sein mag, bedeutet aber keineswegs, dass sie auch kriminalpolitisch überzeugend wäre (etwa mit Blick auf den Ultima-ratio-Gedanken oder Zweckmäßigkeitserwägungen).
- Angesichts des Sanktionsregimes in der KI-Verordnung ist überdies zweifelhaft, inwieweit weitergehende kriminalstrafrechtliche Sanktionsnormen der Mitgliedstaaten unionsrechtlich zulässig sind. Dies führt einmal mehr vor Augen, wie wichtig es ist, Kriminalpolitik nicht mehr nur als rein nationales Feld zu verstehen, sondern auch die Tätigkeit des Unionsgesetzgebers stets im Blick zu behalten.
- Es erscheint daher vor Überlegungen zu einer strafrechtlichen Neuregelung in Deutschland ratsam, zunächst das Funktionieren und die Effektivität des unionsrechtlichen Sanktionsregimes abzuwarten. Auch Geduld kann ein Merkmal kluger Kriminalpolitik sein.
[1] Holznagel, MMR 2018, 18 ff.; Rückert, in: Albrecht/Geneuss/Giraud/Pohlreich, Strafrecht und Politik, 2018, S. 167 (168); ausführlicher Lammich, Fake News als Herausforderung des deutschen Strafrechts, 2022, S. 89.
[2] Hoven, ZStW 129 (2017), 718 (720 ff.); Preuß, Fake News, 2021, passim.
[3] Mittels Deepfakes hergestellte kinderpornografische Inhalte sind bereits nach geltendem Recht von § 184b StGB in zahlreichen Konstellationen erfasst, s. etwa F. Zimmermann, in: SSW-StGB, 6. Aufl. (2024), § 184b Rn. 22 f.
[4] Greif, Strafbarkeit von bildbasierten sexuellen Belästigungen, 2023; überblicksartig Wissenschaftlicher Dienst des Deutschen Bundestags, WD 7 – 3000 – 038/24.
[5] BR-Drs. 222/24.
[6] Richtlinie (EU) 2024/1385 des Europäischen Parlaments und des Rates zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt, ABl. L v. 24.5.2024.
[7] S. insbesondere Schreiber, Strafbarkeit politischer Fake News, 2022, passim; Lammich (Fn. 1), S. 125 ff., 187 ff., 231 ff.; Schünemann, GA 2019, 620 ff.; Rückert (Fn. 1), S. 167 ff.
[8] Rostalski, RW 2017, 436 (444); Schreiber (Fn. 7), S. 187 ff.
[9] Holznagel, MMR 2018, 18 (19); Lammich (Fn. 1), S. 92 ff., der aber hinsichtlich der Nachweisbarkeit eines Effekts auf einen Wahlausgang einleuchtend zur Vorsicht mahnt.
[10] S. Hahne, „Manipulation hat in keinem Land ein solches Ausmaß“, Tagesschau, 6.12.2024, online abrufbar unter: https://www.tagesschau.de/ausland/europa/wahl-rumaenien-annullierung-100.html (zuletzt abgerufen am 20.1.2025).
[11] Sehr skeptisch insoweit bzgl. Fake News allgemein Rückert (Fn. 1), S. 167 (173 ff.).
[12] Dazu etwa Schreiber (Fn. 7), S. 246 ff.; Rostalski, RW 2017, 436, (444 ff.); Lammich (Fn. 1), S. 194 f.; F. Zimmermann/Jorczyk, EuCLR 2023, 118 (129 ff.); zu kriminalpolitischen Regelungsoptionen auf europäischer Ebene führt der Verf. derzeit ein DFG-finanziertes Forschungsprojekt durch.
[13] Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (…), ABl. L v. 12.7.2024.
[14] Zu den technischen Hintergründen Lammich (Fn. 1), S. 73 ff.
[15] S. die Dokumentation des Landesmedienzentrums Baden-Württemberg: Feller, Deepfake-Videos als mediale Waffen im Ukraine-Krieg, LMZ Baden-Württemberg, 5.4.2022, online abrufbar unter: https://www.lmz-bw.de/landesmedienzentrum/aktuelles/aktuelle-meldungen/detailseite/deepfake-videos-als-mediale-waffen-im-ukraine-krieg (zuletzt abgerufen am 20.1.2025).
[16] S. Seitz-Wald, Democratic operative admits to commissioning fake Biden robocall that used AI; NBC News, 25.2.2024, online abrufbar unter: https://www.nbcnews.com/politics/2024-election/democratic-operative-admits-commissioning-fake-biden-robocall-used-ai-rcna140402 (zuletzt abgerufen am 20.1.2025).
[17] Als erster „Bot“ gilt ein 1966 von Joseph Weizenbaum entwickeltes Kommunikationsprogramm für den Bereich der Psychiatrie, s. https://de.wikipedia.org/wiki/ELIZA (zuletzt abgerufen am 20.1.2025).
[18] Keller, Social Bots: Zwischen Phänomen und Phantom, BPB, online abrufbar unter: https://www.bpb.de/themen/medien-journalismus/digitale-desinformation/290555/social-bots-zwischen-phaenomen-und-phantom/ (zuletzt abgerufen am 20.1.2025); Lammich (Fn. 1), S. 85 ff.; Klaas, MMR 2019, 84 (87).
[19] S. nochmals Hahne, „Manipulation hat in keinem Land ein solches Ausmaß“, Tagesschau, 6.12.2024.
[20] Hierzu de lege lata etwa Eckel/Rottmeier, NStZ 2021, 1 ff.
[21] Schünemann, GA 2019, 620 (630 f., 639).
[22] Auch hierzu Schünemann, GA 2019, 620 (630).
[23] Hoven, ZStW 129 (2017), 718 (741); in der Folge auch Schreiber (Fn. 7), S. 290 ff.; F. Zimmermann/Jorczyk, EuCLR 2023, 118 (123 ff.).
[24] Die Vorschrift lautet:
„(1) Wer öffentlich eine falsche Nachricht über einen Umstand, der geeignet ist, Wahl- oder Stimmberechtigte von der Stimmabgabe abzuhalten oder zur Ausübung des Wahl- oder Stimmrechts in einem bestimmten Sinn zu veranlassen, zu einer Zeit verbreitet, da eine Gegenäußerung nicht mehr wirksam verbreitet werden kann, ist mit Freiheitsstrafe bis zu sechs Monaten oder mit Geldstrafe bis zu 360 Tagessätzen zu bestrafen.
(2) Wer sich dabei einer falschen oder verfälschten Urkunde bedient, um die falsche Nachricht glaubwürdig erscheinen zu lassen, ist mit Freiheitsstrafe bis zu drei Jahren zu bestrafen.“
[25] Eder-Rieder, in: Triffterer/Rosbaud/Hinterhofer, Salzburger Kommentar zum StGB, 41. EL (Dez. 2019), § 264 Rn. 6, 13; Fabrizy/Michel-Kwapinski/Oshidari, StGB, 14. Aufl. (2022), § 264 Rn. 1.
[26] Schreiber (Fn. 7), S. 291; T. Zimmermann, ZIS 2011, 982 (990); auch Rückert (Fn. 1), S. 172.
[27] Schutzobjekt soll vielmehr ein größerer Kreis von Stimmberechtigten sein, s. Bachner-Voregger, in: Höpfl/Ratz, Wiener Kommentar, StGB, 2. Aufl. (Stand: 1.6.2018), § 264 Rn. 1; Eder-Rieder, in: Salzburger Kommentar zum StGB, § 264 Rn. 5.
[28] Weiß, in: LK-StGB, Bd. 7, 13. Aufl. (2021), § 108a Rn. 5; Müller, in: MüKo-StGB, Bd. 3, 4. Aufl. (2021), § 108a Rn. 6; T. Zimmermann, ZIS 2011, 982 (990).
[29] Eder-Rieder, in: Salzburger Kommentar zum StGB, § 264 Rn. 16; Bachner-Voregger, in: Wiener Kommentar, StGB, § 264 Rn. 4.
[30] Eder-Rieder, in: Salzburger Kommentar zum StGB, § 264 Rn. 12; Tipold, in: Leukauf/Steininger, StGB, Update 2020, § 264 Rn. 4.
[31] Hoven, ZStW 129 (2017), 718, (741 m. Fn. 89), F. Zimmermann/Jorczyk, EuCLR 2023, 118 (128).
[32] Die einschlägigen Kommentierungen zitieren fast ausschließlich Literaturfundstellen.
[33] S. dazu etwa Wittig, in: SSW-StGB, § 271 Rn. 22.
[34] Stellt man auf einen kausalen Beitrag ab (s. sogleich), erscheint es freilich nicht ausgeschlossen, auch dieses Verhalten unter den Tatbestand zu fassen.
[35] BVerfGE 7, 198 (210); 90, 241 (247).
[36] S. nur Kargl, in: NK-StGB, 6. Aufl. (2023), § 186 Rn. 23 ff. m.w.N.
[37] BVerfGE 61, 1 (9); speziell zu Fake News Bethge, in: Sachs, Grundgesetz, 10. Aufl. (2024), Art. 5 Rn. 28.
[38] BVerfGE 61, 1 (8); 90, 241 (247).
[39] Grabenwarter, in: Dürig/Herzog/Scholz, GG, 105. EL (August 2024), Art. 5 Abs. 1, 2 Rn. 50 ff.; einschränkend etwa Paulus, in: Huber/Voßkuhle, GG, 8. Aufl. (2024), Art. 5 Rn. 84.
[40] BVerfGE 61, 1 (8).
[41] BVerfGE 90, 241 (254); i.E. zustimmend etwa Schreiber (Fn. 7), S. 118 ff.
[42] BVerfGE 54, 208 (219 f.).
[43] So bei Grabenwarter, in: Dürig/Herzog/Scholz, GG, Art. 5 Abs. 1, 2 Rn. 49.
[44] Hierzu im Kontext der Pressefreiheit Grabenwarter, in: Dürig/Herzog/Scholz, GG, Art. 5 Abs. 1, 2 Rn. 410.
[45] Kaiser, in: Dreier, GG, 4. Aufl. (2023), Art. 5 Abs. 1 Rn. 61, unter Berufung auf BVerfGE 12, 113 (130) („leichtfertig“).
[46] EGMR, Urt. v. 7.12.1976, Handyside v. The United Kingdom, 5493/72, Rn. 49; EGMR, Urt. v. 26.4.1979, The Sunday Times v. The United Kingdom, 6538/74, Rn. 65.
[47] Dafür wohl Grabenwarter, in: Dürig/Herzog/Scholz, GG, Art. 5 Abs. 1, 2 Rn. 50; offener Bernsdorff, in: Meyer, EU-Grundrechtecharta, 6. Aufl. (2024), Art. 11 Rn. 13.
[48] EGMR, Urt. v. 23.9.1998, Lehideux and Isorni v. France, 55/1997/839/1045, Rn. 47.
[49] F. Zimmermann/Jorczyk, EuCLR 2023, 118 (132).
[50] Hierzu etwa Grabenwarter, in: Dürig/Herzog/Scholz, GG, Art. 5 Abs. 1, 2 Rn. 95 ff. m.w.N., der allerdings dieser Konstruktion kritisch gegenübersteht (Rn. 98).
[51] Grabenwarter, in: Dürig/Herzog/Scholz, GG, Art. 5 Abs. 1, 2 Rn. 272; Paulus, in: Huber/Voßkuhle, GG, Art. 5 Rn. 140.
[52] S. etwa zu § 90a StGB BVerfGE 81, 278 ff. (Bundesflagge) und BVerfGE 81, 298 ff. (Nationalhymne).
[53] Vgl. Satzger, Internationales und Europäisches Strafrecht, 10. Aufl. (2022), § 9 Rn. 94 mit Rn. 92.
[54] Verordnung (EU) Nr. 596/2014 des Europäischen Parlaments und des Rates über Marktmissbrauch (…), ABl. L 173/1 v. 12.6.2014.
[55] Mitsilegas, EU Criminal Law, 2. Aufl. (2022), S. 120 f.
[56] EGMR, Urt. v. 8.6.1976, Engel and others v. The Netherlands, 5100/71 u.a., Rn. 82.
[57] EuGH, Urt. v. 4.5.2023, MV, Rs. C-97/21, Rn. 37 ff.; EuGH, Urt. v. 14.9.2023, Volkswagen, Rs. C-27/22, Rn. 48. Zudem verweist auch Erwägungsgrund Nr. 168 der KI-Verordnung selbst auf das Verbot der Doppelbestrafung.