2025, Verlag Kovač, ISBN: 978-3-339-14462-1, S. 211, Euro 88,90
Die Dissertation beschäftigt sich mit der Frage, ob und wenn ja, wie künstliche Intelligenz (KI) bestraft werden kann. Strafbarkeit von KI als solcher wurde in der Strafrechtswissenschaft bisher immer abgelehnt. Die Verfasserin hinterfragt daher diesen Meinungsstand kritisch. Insbesondere sei zu prüfen, ob in entsprechenden Schadenssituationen eine natürliche Person strafrechtlich verantwortlich sei oder nicht. Denn nur, wenn dies zu verneinen wäre, würde sich die Verantwortlichkeit von KI stellen. Insofern wird drei Forschungsfragen nachgegangen:
„1. Was ist der Status quo bei der Bestrafung von KI und was ist hieran problematisch?
2. Wie lässt sich das Konzept eines Maschinenstrafrechts in das System des Strafrechts eingliedern?
3. Wie könnte ein Maschinenstrafrecht umgesetzt werden und welche verschiedenen Ausgestaltungsmöglichkeiten sind vorstellbar?“ (S. 15).
Zunächst erörtert die Verfasserin knapp, dass es bislang keine abschließende Definition des KI-Begriffs gäbe. In der Dissertation sei nur eine Eingrenzung der von der Forschungsfrage erfassten KI vorzunehmen (S. 22). Dies überzeugt nur bedingt, denn eine Eingrenzung kann ja nur dann erfolgen, wenn zuvor der Gegenstand klar ist, nach dem einzugrenzen ist. Schließlich begrenzt die Verfasserin den Untersuchungsgegenstand auf „(selbst-)lernende KI und (teil-)autonome Systeme, die in ihrer Entscheidungsfindung nicht – zumindest nicht vollständig – von menschlichen Einflüssen und menschlichem Input abhängen und insoweit im Entscheidungsprozess als auch in der anschließenden Ausführung autonom sind“ (S. 26). Danach wird der Begriff „Maschinenstrafrecht“ erläutert und als Überbegriff für ein KI-Strafrecht angesehen.
Nach dieser Einführung wird der Status quo beschrieben und zu Recht festgestellt, dass die Anwendung des geltenden Rechts auf KI-bedingte Rechtsgutsverletzungen strafrechtliche Probleme bedingt. Während die Zurechenbarkeit bei Vorsatztaten des hinter der KI stehenden Täters unproblematisch sei, sei die Begründung von Fahrlässigkeitstaten deutlich schwerer. Hier bestehe die Notwendigkeit, Sorgfaltspflichten zu bestimmen und zu formulieren. Allerdings könnten auch solch festgelegte Sorgfaltspflichten nur bis zu einer gewissen Grenze die von KI ausgehenden Gefahren einschränken.
Da die konkrete Vorhersehbarkeit von zum Schaden führenden Aktionen einer KI aufgrund der unzähligen Handlungsoptionen kaum möglich, diese aber für die Begründung der Strafbarkeit erforderlich sei, stoße die strafrechtliche Zurechnung vielfach an ihre Grenzen. Gegen die Einführung einer verschuldensunabhängigen Gefährdungshaftung spräche das im deutschen Strafrecht verankerte Schuldprinzip.
Daneben werde in der Strafrechtswissenschaft auch die Behandlung der KI als strafrechtlicher Täter mit Blick auf die verschiedenen Handlungslehren ausgeschlossen. Für die Verfasserin sprächen aber durchaus gute Gründe dafür, eine von einer KI ausgeführte Tätigkeit mit einer menschlichen Handlung gleichzusetzen. Darüber hinaus sei aber auch noch die Frage zu klären, ob der KI die Rechtsgutsverletzung persönlich ebenso vorgeworfen werden könne, wie dies beim Menschen der Fall ist. Es sei zumindest vertretbar, dass KI in gleicher Weise wie Menschen denken könnten, wenn sie hinreichend komplex sei. Mit Blick auf die fehlende Schuldfähigkeit von KI geht die Verfasserin sehr kursorisch auf die Debatte um die Willensfreiheit ein, um dann festzustellen, dass KI-basierte Maschinen von den Menschen und menschlichen Fähigkeiten (noch) zu verschieden seien, um eine strafrechtliche Verantwortlichkeit zu haben. Insofern könne die KI nicht selbst Straftatbestände verwirklichen.
Daher erfülle die Anwendung des Strafrechts auf KI-bedingte Rechtsgutsverletzungen seine Zwecke nicht mehr, so dass es naheliegend sei, unser Rechtssystem entsprechend anzupassen. Der weitere Untersuchungsgang der Dissertation beschäftigt sich daher mit der Frage, ob ein eigenes neu zu schaffendes Strafgesetz für die Bestrafung von KI auf Grundlage der Prinzipien des Strafrechts und unter Berücksichtigung der sich stetig im Wandel befindenden Gesellschaftsanschauung möglich und auch zweckmäßig ist (S. 95).
Die Verfasserin identifiziert eine „Vergeltungslücke“ und ein Bedürfnis des Menschen auf Bestrafung von KI (S. 104). Ob dies tatsächlich so ist, mag zumindest angezweifelt werden. Jedenfalls wird in der weiteren Prüfung der unterschiedlichen Strafzwecke als einziger Strafzweck die Schaffung von Akzeptanz gegenüber den Verboten durch Strafen im Rahmen der Spezialprävention auf die KI für übertragbar gehalten. Durch die Strafen würden bei den Maschinen Impulse gesetzt, durch die derart auf sie eingewirkt werde, dass sie dieses Verhalten in Zukunft unterlassen oder ändern sollen. Diese Behauptung wird aber technisch nicht weiter unterlegt.
Primär wird sodann das Unternehmensstrafrecht als Parallele herangezogen, d.h. danach gefragt, ob und inwieweit die dort aufgeführten Argumente für ein Unternehmensstrafrecht auf ein mögliches Maschinenstrafrecht übertragbar sind. Hier sieht die Verfasserin durchaus Potential zur Übertragbarkeit. Darüber hinaus wird die Überlegung angestellt, ob die KI nicht als eigenständige Rechtsperson – also wie eine Art juristischer Person – behandelt werden kann. Während aufgrund fehlender Vergleichbarkeit von KI und juristischer Person ein Gleichklang von KI mit einer juristischen Person im Bereich der Sanktionierung abgelehnt wird, wird der Gedanke einer KI als eigene (neue) Rechtspersönlichkeit nicht sogleich verworfen. Denn anders als bei der Sanktionierung einer juristischen Person würde bei einer E-Person gerade nicht die dahinterstehende natürliche Person durch Strafe sanktioniert, sondern die KI selbst. Hafte aber die E-Person selbst, so könne darüber hinaus keine natürliche Person mehr für den Schaden haften. Insoweit würde die Einführung einer E-Person als Rechtspersönlichkeit für KI nicht die Frage nach einer Bestrafung der KI lösen oder darauf übertragbar sein. Diese Schlussfolgerung erschließt sich nicht sofort.
Aufgrund dieses doch ernüchternden Ergebnisses verwundert es, wenn im nächsten Kapitel dann doch die Ausgestaltung eines Maschinenstrafrechts explizit einer Ausarbeitung zugeführt wird. Wenn KI nicht dem Menschen gleichgestellt ist, keine juristische Person ist und auch eine E-Person nicht weiterhilft, wie soll dann eine Strafbarkeit aussehen?
Die Verfasserin prüft hier in einem ersten Schritt, welche Art der Strafe bzw. Sanktionierung von KI möglich und sinnvoll ist, um dann zu überlegen, wie dies in der Praxis umgesetzt werden könnte. Letztlich wird eine Sanktionierung in Form der Umprogrammierung gefordert. Hierzu könne entweder der Programmierer bzw. Hersteller staatlich verpflichtet werden oder der Saat könne die Umpro-grammierung selbst vornehmen. Diese Umprogrammierung sollte aufgrund des ultima ratio Gedankens des Strafrechts und den strafrechtlichen Grundprinzipien keinen Strafcharakter haben, sondern in Form eines staatlichen Disziplinarrechts erfolgen (S. 200).
Problematisch an diesem Vorschlag erscheint mir, dass das Disziplinarrecht dem Schutz bestimmter Institutionen und ihrer Funktionsbedingungen gegen Pflichtverletzungen von Angehörigen dieser Institutionen dient. Wie sollte also dieser „Charakter von disziplinarrechtlichen Maßnahmen“ (S. 200) in eine diesen Rahmenbedingungen entsprechende Form gegossen werden? Sinnvoller erscheint mir hier der Gedanke einer „Form des Haftungsrechts mit Kontrollrecht“ zu sein (S. 200). Gerade an dieser Schnittstelle hätte man sich eine ausführlichere Positionierung in der Arbeit gewünscht, die hier aber nur den Anspruch an sich stellt „einen Ausblick (zu) geben und eine Grundlage für eine zukunftsorientierte Diskussion (zu) bieten“ (S. 200). Insofern ist es zwar ein Verdienst dieser Arbeit, diese Überlegungen anzustoßen zu haben und nicht bei einer kategorischen Verneinung von – wie auch immer gearteten – KI-Sanktionierung stehen zu bleiben. Dies bildet aber lediglich ein gutes Fundament, um die schwierigen Fragen um die Ausgestaltung weiteren Dissertationen zu überlassen.