Anna Lohmann: Strafrecht im Zeitalter von Künstlicher Intelligenz. Der Einfluss von autonomen Systemen und KI auf die tradierten strafrechtlichen Verantwortungsstrukturen

von Prof. Dr. Anja Schiemann

Beitrag als PDF Version 

2021, Nomos, ISBN: 978-3-8487-8330-4, S. 289, Euro 82,00.

Über die Frage strafrechtlicher Verantwortlichkeit für Schäden beim Einsatz von KI ist schon viel geschrieben worden. Hierbei geht es häufig um die Auflösung von Dilemmata-Situationen im Bereich des autonomen Fahrens. Seltener sind grundlegende Arbeiten zur Reichweite des Sorgfaltsmaßstabs beim Inverkehrbringen von KI-Produkten sowie der individuellen (Unternehmens-)Verantwortung für KI-Produkte. Insofern ist es verdienstvoll, sich dieses zukunftsträchtigen Themenfeldes in einer Dissertation anzunehmen.

Die Verfasserin führt nach einem kurzen geschichtlichen Überblick die Begriffe „Autonome Systeme“ und „Künstliche Intelligenz“ einer eigenen Arbeitsdefinition zu. Unter den Begriff autonomer Systeme fasst sie Systeme, die in der Lage sind, selbstständig zu agieren, so dass ein äußeres Eingreifen des Menschen nicht erforderlich ist. Diese Selbstständigkeit bringe naturgemäß gewisse Unberechenbarkeiten mit sich, die die entscheidende Eigenschaft sei, um als autonomes System klassifiziert zu werden (S. 41).

Die Ausfüllung des Begriffs KI ist vielfältig und Lohmann zeichnet hier die unterschiedlichsten Ansätze nach. Insbesondere wird aufgezeigt, dass KI auf verschiedene Art und Weise durch unterschiedliche Lernverfahren lernen kann. Allerdings entziehe sich die KI beim Lernen insoweit der menschlichen Kontrolle, als ihre Vorgehensweise bei der Lösung der an sie gestellten Aufgaben nicht immer nachvollziehbar sei (S. 73). Bei der Entwicklung einer Arbeitsdefinition bezieht sich die Verfasserin zwar schon auf die Europäische Kommission sowie die Definition der von dieser eingesetzten Expertengruppe, jedoch noch nicht auf die durch den Entwurf einer Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz sehr weitgehende KI-Definition, da dieser erst nach Einreichung der Arbeit vorgelegt wurde. Insofern ist es erstaunlich, dass die Verfasserin schon zuvor ihre KI-Arbeitsdefinition so wie im Verordnungsvorschlag sehr weit zieht. KI wird nach Lohmann als ein Soft- oder Hardware-System definiert, das nach entsprechender Inbetriebnahme ohne menschliche Einflussnahme funktioniert (S. 78).

Abschließend wird herausgestellt, dass in jeder KI auch ein autonomes System steckt, andersherum muss das autonome System stets die Möglichkeit des Lernens besitzen, um als KI bezeichnet zu werden (S. 79).

In einem weiteren Kapitel geht die Verfasserin der Frage nach der strafrechtlichen Verantwortung der Künstlichen Intelligenz nach (S. 91 ff.). Zwar verneint die Verfasserin die Qualität der KI als Rechtssubjekt, allerdings könnten es weitere technische Neurungen durchaus möglich erscheinen lassen, sich bald mit einem neuen Rechtssubjekt beschäftigen zu müssen (S. 105). Diese Prognose erscheint etwas kryptisch und hätte näherer Präzisierung bedurft.

Dennoch geht Lohmann der strafrechtlichen Verantwortlichkeit von KI nach dem tradierten strafrechtlichen Prüfungsschema nach. Eine strafrechtliche Handlung seitens einer KI wird zutreffend abgelehnt ebenso wie das Vorliegen eines subjektiven Elements. Auch könne KI als technischem Produkt kein Schuldvorwurf gemacht werden (S. 131). Doch auch wenn man zukünftig zu einem anderen Ergebnis gelänge, so müsse doch die Frage nach dem Sinn und Zweck einer solchen Bestrafung gestellt werden (S. 132). Eine Bestrafung sei derzeit absurd. Allerdings müsse die Frage neu aufgeworfen werden, sofern zukünftig KI-Produkte existieren, die menschenähnliche Züge aufwiesen und begreifen könnten, dass sie etwas falsch gemacht haben (S. 142).

Scheidet eine Verantwortlichkeit der KI an sich aus, so muss konsequent nach einer Strafbarkeit des Herstellers beim Einsatz von KI-Produkten gefragt werden (S. 144 ff.). In diesem – durchaus als Kernkapitel zu betrachtenden – Teil der Dissertation werden sämtliche Konstellationen vorwerfbaren Verhaltens auf Herstellerseite beleuchtet. Im Bereich möglicher Fahrlässigkeitsdelikte wird deutlich, dass viele Probleme mit der bekannten Dogmatik gelöst werden können. Entscheidend sei aber stets der konkrete Einzelfall. Im Hinblick auf hoch- bzw. vollautomatisiertes Fahren sei der Gesetzgeber bereits tätig worden und habe Änderungen des StVG in §§ 1a, 1b StVG vorgenommen.

Interessant, so die Verfasserin, werde insbesondere die zukünftige Ausdifferenzierung der den Herstellerverantwortlichen treffenden Sorgfaltspflichten. Hier werde entscheidend sein, ob eine sich an dem jeweiligen Risikograd und dem Einsatzbereich des Systems sowie der menschlichen Einflussnahme orientierende erhöhte Sorgfaltspflicht erforderlich ist oder die bestehenden Sorgfaltspflichten ausreichend oder sogar zu hoch seien. Überdies werde künftig auch der Figur des erlaubten Risikos eine immer größere Bedeutung zukommen.

Ob darüber hinaus im Einzelfall auch eine Vorsatzstrafbarkeit in Betracht kommt, könne nicht pauschal beantwortet werden. Gerade bei der Inverkehrgabe von KI-Produkten sei wohl in der Praxis eher selten von einer Vorsatztat auszugehen. Zwar sei insbesondere bei offenen KI-Systemen, die auch falsch hinzulernen können, damit zu rechnen, dass es infolgedessen zu einem strafrechtlich relevanten Schaden komme. Allerdings reiche die Bejahung der Wissenskomponente allein nicht aus, um dolus eventualis anzunehmen. Die entsprechende Wollenskomponente sei eher selten erfüllt.

Schließlich stünden Unterlassungsdelikte immer dann in Rede, wenn auf eine erforderliche Handlung verzichtet werde. Im Zusammenhang mit KI-Produkten kämen solche Konstellationen aber weniger in Betracht. Grund sei die diesen Produkten immanente fehlende Nachvollziehbarkeit, die zu einer erschwerten Feststellung der Quasi-Kausalität führten.

Sehr knapp geht die Verfasserin dann der Frage nach, ob nicht aufgrund der schwer zu fassenden individuellen strafrechtlichen Verantwortlichkeit ggf. ein Unternehmensstrafrecht der richtige Weg sei, um Herstellerunternehmen für fehlerhafte KI-Produkte zur Verantwortung zu ziehen. Dies wird aufgrund rechtsdogmatischer Gründe verneint und die Einführung eines Verbandssanktionenrechts als geeigneteres Mittel angesehen. Soweit konstatiert wird, dass die Probleme, die bei der Inverkehrgabe von KI-Produkten bestehen, auch nicht mit solch einem geplanten Sanktionenrecht gelöst werden können, ist dies zwar richtig, allerdings fällt die Begründung dafür auf 3 Seiten etwas oberflächlich aus.

Abschließend widmet sich die Arbeit ausblickend der Frage, inwieweit das Strafrecht der KI-Entwicklung gerecht werden kann, damit der Rechtsgüterschutz gewährleistet bleibt. Als eine Möglichkeit identifiziert die Verfasserin de lege ferenda die Schaffung eines Gefährdungsdelikts. Dann müsse durch das KI-Produkt kein Schaden verursacht worden sein, sondern die Gefährdung bestimmter Rechtsgüter würde genügen. Dadurch würden Herstellerverantwortliche zumindest dazu angehalten, riskante KI-Produkte nicht in den Verkehr zu bringen.

Ein konkretes Gefährdungsdelikt könne aber nur dann zielführend sein, wenn bereits das KI-Produkt an sich und somit das Inverkehrbringen als solches, das Leben, die Gesundheit oder Sachen von bedeutendem Wert konkret gefährdet. Dagegen sei ein konkretes Gefährdungsdelikt dann ein ungeeignetes Instrument, wenn diese konkrete Gefährdung nicht schon durch das Inverkehrbringen, sondern erst durch nachträglich falsch gelernte Inhalte entstehe (S. 262).

Bei abstrakten Gefährdungsdelikten könne dagegen Anknüpfungspunkt bereits das Inverkehrbringen offener KI-Produkte sein. Allerdings wäre dann jedes Inverkehrbringen eines offenen KI-Systems abstrakt gefährlich, so dass der technische Fortschritt durch dieses Strafbarkeitsrisiko gehemmt würde. Eine Lösung könne die Schaffung eines abstrakten Gefährdungsdelikts in Kombination mit dem Eintritt eines Schadens als objektive Bedingung der Strafbarkeit sein. Der Begriff des Schadens sollte dabei spezifiziert werden auf die Rechtsgüter Leib und Leben, Eigentum oder Ehre. Ungefährliche offene KI-Produkte würden somit nicht vom Tatbestand erfasst. Doch auch hier erkennt die Verfasserin, dass die Einführung eines solchen Gefährdungsdelikts Auswirkungen auf die KI-Entwicklung hätte. Daher sei die Einführung eines abstrakten Gefährdungsdelikts eine rechtspolitische Entscheidung. Die Verfasserin spricht sich – mit guten Argumenten – gegen eine solche Einführung aus (S. 266).

Soll also alles bleiben, wie es ist? Die Verfasserin hält gesetzgeberische Aktivitäten derzeit für nicht zwingend angezeigt. Letztlich regt sie zu einer vielschichtigen interdisziplinären Diskussion an, da Rechtswissenschaftler nicht ohne entsprechende technische Fachinformationen normative Regelungen schaffen sollten (S. 273). Dies ist sicher richtig. Der interdisziplinäre Austausch tut Not. Gleichwohl zeigt der Entwurf für eine Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz, dass durchaus schon jetzt Bedarfe erkannt werden, den rechtlichen Rahmen in Bezug auf KI nachzujustieren. Den dogmatischen Ist-Zustand hat die Verfasserin in ihrer Arbeit umfassend und überzeugend dargelegt. Jetzt müssen weitere perspektivische Arbeiten zur Ausgestaltung de lege ferenda folgen und dies möglichst noch bevor die KI-Verordnung auch für Deutschland geltendes Recht wird.

 

 

 

 

Unsere Webseite verwendet sog. Cookies. Durch die weitere Verwendung stimmen Sie der Nutzung von Cookies zu. Informationen zum Datenschutz

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen.
Wenn Sie diese Website ohne Änderung der Cookie-Einstellungen verwenden oder auf "Akzeptieren" klicken, erklären Sie sich damit einverstanden.

Weitere Informationen zum Datenschutz entnehmen Sie bitte unserer Datenschutzerklärung. Hier können Sie der Verwendung von Cookies auch widersprechen.

Schließen