David Nink: Justiz und Algorithmen. Über die Schwächen menschlicher Entscheidungsfindung und die Möglichkeiten neuer Technologien in der Rechtsprechung

von Prof. Dr. Anja Schiemann

Beitrag als PDF Version 

2021, Duncker & Humblot, ISBN: 978-3-428-18106-3, S. 533, Euro 119,90.

Die Frage, ob und wie Künstliche Intelligenz (KI) für die richterliche Entscheidungsfindung nutzbar gemacht werden kann, wird schon seit geraumer Zeit diskutiert. Hierbei geht es weniger um die Konstellation der Ersetzung richterlicher Entscheidungen durch KI, sondern vielmehr um das Nutzbarmachen von Hilfssystemen zur Arbeitserleichterung. KI im Richterstuhl wird dagegen i.d.R. als Schreckensszenario gezeichnet. Insofern ist es verdienstvoll, sich im Rahmen einer Dissertation darauf einzulassen, unter welchen Voraussetzungen richterliche Entscheidungen automatisierbar sind.

Einführend wird insofern der Status quo richterlicher Entscheidungsfindung beleuchtet, so dass schnell klar wird, dass auch der menschliche Entscheider vielen Determinanten ausgesetzt ist und menschliche Entscheidungen – auch die richterlichen – fehleranfällig sind. Interessant und gerade für Juristen kein Basiswissen (was es aber sein sollte), sind die Ausführungen zur Struktur eines Entscheidungsprozesses und dem Zustandekommen menschlicher Entscheidungen. Nicht nur Emotionen wirken sich auf den Entscheidungsprozess aus, auch Denkfehler, Rationalitätsschwächen und andere Einflüsse. Dem Verfasser gelingt es, durch Beispiele und einer Auswahl an Studienergebnissen hier den kritischen Blick zu schulen und sich diese Determinanten im Entscheidungsprozess bewusst zu machen.

Im nächsten Schritt wird dem Diskriminierungspotential richterlicher Entscheidungen nachgespürt und Vorgaben an die richterliche Rechtsfindung beschrieben. Durch die strikte Gesetzesbindung habe der Richter seine Entscheidungen ohne Verstoß gegen das Verfahrensrecht zu treffen, äußerster Rahmen sind die Vorschriften zur Rechtsbeugung sowie die Ausschluss- oder Ablehnungstatbestände in den einzelnen Verfahrensordnungen. Durch die Nutzung anerkannter Auslegungsmethoden und die Notwendigkeit der vollständigen und widerspruchsfreien Entscheidungsbegründung, werde versucht, äußeren Einflüssen entgegenzuwirken und Einzelfallgerechtigkeit anzustreben. Gleichwohl könne, so der Verfasser, die Rechtsordnung Denkfehler weder verbieten noch verhindern.

Demzufolge versucht Nink, Strategien gegen Rationalitätsschwächen zu entwickeln. So käme dem Zusammenspiel zwischen Psychologie und Jurisprudenz im Prozess richterlicher Entscheidungsfindung bislang eine zu geringe Aufmerksamkeit zu. Insofern seien Grundlagen der Rechts- und Entscheidungspsychologie schon im Jurastudium oder Referendariat zu vermitteln. Auch Richterfortbildungen oder „Entscheidungs-Leitfäden“ könnten dazu beitragen, kognitive Verzerrungen einzudämmen.

Der zweite Hauptteil der Arbeit ist sodann den neuen Technologien in der richterlichen Entscheidungsfindung gewidmet. Hier werden auch die Grenzen eines „Smart Judging“ aufgezeigt (S. 139 ff.). Es wird deutlich, dass maschinell getroffene Entscheidungen ebenso fehleranfällig sind wie menschliche Entscheidungen – dass sich die Fehler aber zwangsläufig an anderer Stelle ergeben. Denn die Qualität der Ergebnisse hängt von den Programmierern und insbesondere von der Qualität der Trainings- und Validierungsdaten ab. Eine solche Fehleranfälligkeit führt dann aber im Gegensatz zu Fehlern beim menschlichen Entscheider zu einer ungleich größeren Breitenwirkung. Spezielle Diskriminierungsrisiken, die allen algorithmenbasierten Systemen innewohnen, können Ungleichbehandlungen perpetuieren und festschreiben.

In Betracht käme der Einsatz von KI grundsätzlich dort, wo weder Ermessens- noch Beurteilungsspielräume auszufüllen sind. Anbieten würde sich eine Automatisierung daher in den Bereichen, in denen ein Programm eine große Anzahl gleichgelagerter Fälle nach einem vorgegebenen Muster abarbeiten und der Rechtsanwender die Dateneingabe zweckmäßig organisieren könne.

Zu differenzieren sei zwischen rein regelbasierten Systemen statischer Entscheidungsfindung und datenbasierten, lernenden Systemen. Richterliche Entscheidungen seien qua Natur der Sache keine „Regelfälle“, sondern Einzelfallentscheidungen. Einzelfallgerechtigkeit lasse sich aber nicht automatisch generalisieren. Das, was die Rechtsordnung einem Richter abverlange, könne durch Maschinen nicht geleistet werden. Schon die Verfassung zeige einer automatisierten Rechtsprechung normative Grenzen auf. Richter i.S. des Art. 92 GG sei ein Mensch, so dass die gerichtliche Entscheidung explizit durch natürliche Personen zu treffen sei. Auch das Recht auf den gesetzlichen Richter (Art. 101 Abs. 1 S. 2 GG) sowie der Anspruch auf rechtliches Gehör (Art. 103 Abs. 1 GG) setze eine natürliche Person voraus. Letztlich könnten vollständig automatisierte Gerichtsentscheidungen dem Rechtsstaatsprinzip nicht gerecht werden. Zudem verbiete es auch die Menschenwürde, Personen ausschließlich als Objekte eines algorithmischen Datenverarbeitungsvorgangs zu vermessen und zu quantifizieren. Auch wenn es einen „Richterautomaten“ (S. 357) in absehbarer Zukunft nicht geben könne, sei doch eine andere Frage aufzuwerfen, nämlich die, ob ein neutraler Algorithmus nicht etischer sein könne als die durch Denkfehler verzerrte menschliche Entscheidungsfindung.

Aus Betroffenensicht könne ein algorithmenbasiertes Entscheidungssystem unter der Voraussetzung einer effektiven Technikkontrolle und der Nachvollziehbarkeit ihres Zustandekommens durchaus faire, gerechte, ethische Entscheidungen treffen. Es bedürfe für den Umgang mit neuen Technologien aber einer klaren Zieldefinition. Dies bspw. dadurch, dass man gerichtliche Entscheidungen rationaler mache. Ein sinnvoller Einsatz von KI sei also nur als Entscheidungshilfe, nicht als Ersatz einer menschlichen Entscheidung denkbar. Aber auch hier gäbe es Grenzen des Einsatzes entscheidungsunterstützender Systeme. Art. 97 Abs. 1 GG fordert, dass die Letztentscheidung beim menschlichen Richter verbleibe und dieser nicht an einen algorithmisch generierten Entscheidungsvorschlag gebunden sei. Der menschliche Richter sollte also selbst darüber entscheiden können, ob er verfügbare informationstechnische Hilfsmittel zu Rate ziehe oder nicht.

Je reflektierter der Umgang des Anwenders mit dem System sei, desto eher verliere die Unterstützung mit KI den Charakter der Automatisierung. Allerdings folge aus dem Grundsatz der Transparenz, dass der Richter die algorithmische Vorgehensweise des Assistenzsystems in ihren Grundzügen verstehen und erklären können müsse. Der Richter müsse sich sowohl der Grenzen des menschlichen Erkenntnishorizonts als auch der von dem Algorithmus-einsatz ausgehenden Gefahren bzw. Grenzen maschineller Entscheidungsfindung bewusst sein.

Auf diesem Fundament zeigt der Verfasser im nächsten Teil seiner Untersuchung Möglichkeiten algorithmenbasierter Entscheidungsunterstützung in der Strafrechtspflege auf (S. 359 ff.). Zunächst wird deutlich gemacht, dass gegen algorithmenbasierte entscheidungsunterstützende Systeme verfassungsrechtlich keine Bedenken bestehen. Neben einem Überblick über Einsatzmöglichkeiten von Entscheidungsunterstützungssystemen wird ein kritischer Blick auf solche Systeme in den USA – insbesondere die Risikobewertungssoftware COMPAS – geworfen.

Im Folgenden werden die Anwendungsszenarien für Deutschland untersucht. Breiter Raum wird der – auch in den Rechtswissenschaften intensiv diskutierten – Frage nach der Automatisierung von Strafzumessungsentscheidungen gewidmet. Der Verfasser hält es weder rechtlich noch technisch für möglich, Entscheidungen über die Höhe einer verhängten Strafe vollständig auf Maschinen zu übertragen. Allerdings sei es möglich, Strafgerichte in der Strafzumessung zu unterstützen, bspw. durch einen algorithmusgenerierten Zumessungsvorschlag.

Auch seien strafrechtliche Prognoseentscheidungen, sofern sie auf objektiven Kriterien basieren, in Teilabschnitten auch algorithmisch abbildbar. Zwar könne inhaltlich durch das algorithmenbasierte System keine Gesamtentscheidung vorgeschlagen werden, jedoch ein Prognosewert. Algorithmisch ermittelte Prognosen könnten idealiter konsistentere und genauere Entscheidungen erlauben. Eine rechtskonforme Ausgestaltung und Nutzung algorithmenbasierter Unterstützungssysteme im Strafverfahren stehe aber unter der Voraussetzung, dass die richterliche Unabhängigkeit unangetastet bleibe. So dürfe es insbesondere keine Bindungswirkung und keine automatische Übernahme der algorithmischen Vorschläge geben. Einer rein faktischen Prädeterminierung der richterlichen Entscheidung und dem Automation Bias sei mit Gegenmaßnahmen und Trainings vorzubeugen (S. 441). Hier wäre natürlich kritisch zu hinterfragen, inwieweit diese Prädeterminierung tatsächlich durch „Gegenmaßnahmen und Trainings“ unterbunden werden kann, hat doch der Verfasser eingangs ausführlich beschrieben, wie determiniert menschliche Entscheidungen sind – und nun kommt eine sehr gewichtige Determinante durch den Entscheidungsvorschlag von KI hinzu.

Anschließend werden andere Anwendungsszenarien zum Einsatz algorithmenbasierter Entscheidungsunterstützung in weiteren justiziellen Legal-Tech-Anwendungen beschrieben. So könnten umfassende Datenbanken gewichtige Entscheidungshilfen liefern. So wird nur ein Bruchteil gerichtlicher Entscheidungen erfasst, insbesondere die untergeordneten bzw. erstinstanzlichen Gerichte publizierten Entscheidungen nur in besonderen Fällen. Eine vollständigere, umfassendere Datenerfassung ermögliche es zum einen, juristische Annahmen intersubjektiv überprüfbar zu machen. Zum anderen könnten sie als Grundlage für entscheidungsunterstützende Systeme dienen.

Des Weiteren könne ein Algorithmus nachträglich eine bereits gefundene richterliche Entscheidung mit vergleichbaren, ähnlich gelagerten Fällen in einer bundesweiten Datenbank abgleichen und so etwa regionale Unterschiede in der Strafzumessungspraxis sichtbar machen.  Ein solches System könne retrospektiv das Entscheidungsverhalten des Richters analysieren und eventuelle Verzerrungen aufdecken und aufbereiten. Hierbei handele es sich um ein deskriptives Entscheidungsunterstützungssystem, das die bisherige Rechtsprechung wertungsneutral registriere und katalogisiere.

Resümierend hält der Verfasser fest, dass entscheidungsunterstützende Systeme zwar „kein Allheilmittel“ darstellten, sie könnten aber „ein nützlicher Vitamincocktail sein“, so dass sich der einzelne Richter mancher Fehlerquelle bewusst werde (S. 453). Die Hoffnung sei, dass die Rechtsprechungspraxis künftig konsistenter, gleichmäßiger, effizienter und fairer sein könne. Hierzu müsse aber auch das Bewusstsein der Richter geschärft werden, algorithmisch ermittelte Vorschläge nicht als verbindlich, sondern nur als assistierend anzusehen.

Bei aller Begeisterung darf natürlich auch das Diskriminierungspotential nicht verschwiegen werden (S. 466). Limitierungen durch eine allzu sorglose Anwendung durch den Richter, können hinzukommen und die Gefahr des Einsatzes von KI bei der Entscheidungsunterstützung potenzieren. Sofern Nink hier mehrfach auf die Erforderlichkeit hinweist, dem Automation Bias durch Gegenmaßnahmen und Trainings vorzubeugen, so muss genau herausgearbeitet werden, wie diese auszusehen haben.

Der Einsatz algorithmenbasierter Unterstützungssysteme  stellt nicht nur hohe Anforderungen an den Richter, sondern auch an die Technik. Hier muss weitere Forschungsarbeit ansetzen, um in rechtlich ethischer Begleitforschung das Fundament für einen nicht nur verfassungskonformen, sondern auch ethisch vertretbaren technischen Rahmen zu setzen.

Zutreffend weist der Verfasser darauf hin, dass die Strafprozessordnung angepasst werden muss, wenn technische Systeme im Strafprozess entscheidungsunterstützend eingesetzt werden (S. 456). Hier müssen weitere Studien de lege ferenda Vorschläge herleiten, die rechtskonform und unter Abwägung verfassungsrechtlicher Implikationen entscheidungsunterstützende Systeme in die Strafprozessordnung einbetten. Auch das Gerichtsverfassungsgesetz ist anzupassen.

Ausblickend hält Nink algorithmenbasierte Entscheidungsunterstützungssysteme in der Justiz für eine Chance, gerichtliche Entscheidungen gleichmäßiger zu machen und die formelle Gleichbehandlung und Rechtssicherheit zu erhöhen (S. 467). Richtig angewandt und eingesetzt, ist das sicher richtig. Allerdings birgt KI auch Diskriminierungsrisiken. Hier ist ein kritischer Blick auf die angewandte Technik angebracht. Wünschenswert sind insoweit interdisziplinäre Teams, die nicht nur die Entscheidungsunterstützungssysteme technisch ordentlich umsetzen, sondern diese auch in einen verfassungskonformen, ethisch vertretbaren Rahmen einbetten. Last but not least ist der Richter als Endentscheider gefordert, sorgsam und in Kenntnis der Limitierungen solcher Unterstützungssysteme eine ausgewogene (menschliche) Entscheidung zu treffen.

 

Unsere Webseite verwendet sog. Cookies. Durch die weitere Verwendung stimmen Sie der Nutzung von Cookies zu. Informationen zum Datenschutz

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen.
Wenn Sie diese Website ohne Änderung der Cookie-Einstellungen verwenden oder auf "Akzeptieren" klicken, erklären Sie sich damit einverstanden.

Weitere Informationen zum Datenschutz entnehmen Sie bitte unserer Datenschutzerklärung. Hier können Sie der Verwendung von Cookies auch widersprechen.

Schließen