11.04.2024

Recht sprechen mit Algorithmen

zurück

Recht sprechen mit Algorithmen

Wie in den USA mit vermeintlich wissenschaftlichen Methoden Menschen hinter Gitter gebracht werden

von Raphaël Kempf

TYGER WILLIAMS/picture alliance/ap
Audio: Artikel vorlesen lassen

Unser Gespräch dauert kaum zehn Minuten, da wird Richard Berk ungeduldig: „Mein Algorithmus ist gerechter und präziser als die meisten Richter!“ Das wiederholt er nun schon zum dritten Mal. Der emeritierte Professor für Kriminologie und Statistik der University of Pennsylvania arbeitet seit fast 20 Jahren an der Entwicklung mathematischer Formeln, um Richtern und Bewährungshelfern bei der Entscheidungsfindung zu helfen.

Berk hat dafür fast 300 000 Fälle ausgewertet, diverse biografische Angaben wie Alter, Geschlecht und Vorstrafen abgeglichen und das Verhalten der Personen während der Aufsicht durch die Bewährungshilfe beobachtet. Damit, behauptet er, könne sein Algorithmus das wahrscheinliche Verhalten eines Individuums vorhersagen: Wird die betroffene Person ihre Gerichtstermine schwänzen? Droht ein Rückfall?

Die Bewährungshilfe des Gerichtsbezirks Philadelphia benutzte als erste staatliche Einrichtung den Algorithmus. Berks Forschungsarbeit diente zur Entwicklung mehrerer risk assessment instruments (Instrumente zur Risikobeurteilung), besonders in Pennsylvania und Philadelphia, die seit 2015 auch bei der Festlegung des Strafmaßes angewendet werden. Für Letzteres wurden neun „Risikofaktoren“ definiert – neben Alter und Geschlecht auch der Wohnort und die Anzahl früherer Verurteilungen.

Race ist zwar keine Kategorie, aber der Wohnort ist ganz klar ein sozio­öko­no­mi­scher Marker, weil mehr Schwarze als Weiße in ärmeren Brennpunktvierteln wohnen. Auch die Anzahl früherer Verhaftungen ist kein wirklich objektives Kriterium, wenn man bedenkt, dass bestimmte Gruppen, sprich junge Schwarze Männer, unverhältnismäßig oft in Polizeikontrollen geraten.

Nachdem Aktivistinnen, Anwälte und ehemalige Strafgefangene gegen die diskriminierenden Kategorien protestiert hatten, präsentierte der Strafausschuss 2019 einen neuen Algorithmus, der seit dem 1. Juli 2020 benutzt wird. Er bezieht nicht mehr den Wohnort oder frühere Verhaftungen ein, sondern die Anzahl und Art bisheriger Ver­ur­tei­lungen ­– ein zwar objektiveres, aber auch nicht unproblematisches Kriterium.

Für die Stadt Philadelphia hat der Gerichtsbezirk ebenfalls mit Unterstützung von Berk einen anderen Algorithmus entwickelt, um die Entscheidungsfindung hinsichtlich der Untersuchungshaft zu erleichtern: Muss ein Angeklagter im Gefängnis bleiben, während er auf seinen Prozess wartet? Und wie viel muss er bezahlen, um zu Hause warten zu dürfen? Das aktuelle System beruht auf der Zahlung einer Barkaution (cash bail), weshalb die Freiheit der Angeklagten von ihrem Vermögen abhängt, was zutiefst unsozial ist und eine der Ursachen für die hohe Gefangenenrate in den USA.1

Die Entwicklung des Algorithmus verlief jedoch intransparent, weshalb sich der Staatsanwalt von Philadelphia, Larry Krasner, und die Präsidentin des kommunalen Pflichtverteidigerbüros, Keir Bradford-Grey, 2019 aus dem Projekt zurückzogen. „Wenn eine Software auf Daten beruht, die in einem diskriminierenden System verwurzelt sind, wird sie die Ungleichheit nur verstärken und die Persönlichkeit des Angeklagten ausradieren“, erklärten sie.2 Der Algorithmus wurde aufgegeben.

In Philadelphia landen jeden Tag Beschuldigte nach oberflächlichen Anhörungen hinter Gittern, weil sie kein Geld haben, um ihre Kaution zu bezahlen. In einem Kellerraum des Gerichts sitzen sich ein Richter, ein Vertreter der Staatsanwaltschaft und ein Pflichtverteidiger gegenüber, während die beklagte Person aus dem Gefängnis per Video zugeschaltet wird. Das Verfahren dauert wenige Minuten und beschränkt sich auf Identitätsüberprüfung und Verlesung der Anklagepunkte. Der Staatsanwalt verlangt automatisch eine hohe Kaution, der Anwalt sagt ein paar Worte, um für eine „angemessene“ Kaution zu plädieren, dann fällt der Richter sein Urteil. Bei unserem Besuch entschied ein Gericht in kaum anderthalb Stunden über das Schicksal von acht Personen. Zwei wurden ohne Kaution freigelassen, für sechs wurde eine Barkaution festgelegt.

Dennoch ist die Gefangenenrate in Philadelphia zwischen 2016 und 2023 um 40 Prozent gesunken3 , nachdem Krasner 2017 zur allgemeinen Überraschung zum leitenden Staatsanwalt der Stadt gewählt wurde. Der frühere Strafverteidiger, der sich leidenschaftlich für den Rückgang der Häftlingszahlen einsetzt, hat vor allem aufgehört, Kau­tio­nen für zahlreiche kleinere Delikte zu verlangen. In der Justiz sind politische Entscheidungen manchmal wirkungsvoller als digitale Hilfsmittel.

Acht Urteile in anderthalb Stunden

Im Bundesstaat New Jersey, auf der anderen Seite des Delaware River, der Philadelphia von Camden trennt, wurden die Kautionen dagegen komplett durch einen Algorithmus ersetzt. Die Einführung des Public Safety Assessment (PSA, öffentliche Sicherheitsbewertung) erfolgte nach der Justizreform von 2014 unter dem republikanischen Gouverneur Chris Christie (2010–2018). Auch er wollte die Gefängnisse leeren – vor allem um Geld zu sparen.

Das Public Safety Assessment wurde mit Unterstützung der Stiftung Arnold Ventures LCC aufgebaut, die von dem texanischen Milliardärsehepaar Arnold gegründet wurde, das mit Erdöl- und Finanzgeschäften reich geworden ist. Die Stiftung verweist unsere Interviewanfrage an ihre Presseabteilung, die uns mit Dokumenten überhäuft, in denen die Präzision und transparente Entscheidungsfindung der Software angepriesen wird. Mit dem Argument, Rich­te­r:in­nen können rassistischer sein als eine Software, wollen sie vor allem der Vermutung entgegentreten, die Algorithmen würden Diskriminierung von Nichtweißen begünstigen.4

Auch die Anwältin Meg Butler, Leiterin des Pflichtverteidigerbüros für die Untersuchungshaft in Camden, verteidigt das PSA. Zwar schaffe der Algorithmus rassistische Verzerrungen nicht komplett ab, aber das sei ein „notwendiges Übel“: Ohne ihn wäre das Kau­tions­system nicht abgeschafft worden.

Der langjährige Gerichtspräsident von Passaic County, New Jersey, Ernest M. Caposela steht kurz vor seiner Rente, als er uns in seinem Büro empfängt, von dem aus man die Wolkenkratzer von Manhattan sieht. Auch er zählt uns die Vorzüge des Algorithmus vor: Senkung der Gefangenenrate, Einsparungen, mehr Sicherheit. Früher seien gefährliche Verbrecher freigelassen worden, wenn sie genug Geld hatten, um ihre Kaution zu bezahlen, und Kleinkriminelle mussten im Gefängnis bleiben, weil sie arm waren. Der Algorithmus habe diese Anomalie beendet. Caposela behauptet allerdings, dass er sich immer sein persönliches Urteil vorbehalten habe und die Software nur eine Unterstützung sei: „Wir sind nicht an den Algorithmus gebunden. Ein Computer und ein Mensch treffen gemeinsam die richtige Entscheidung.“

In ganz New Jersey ist es fast unmöglich, eine kritische Stimme über das PSA zu finden. Alle Gesprächspartner verweisen darauf, dass die Gefangenenrate zwischen 2016 und 2023 um 30 Prozent gesunken ist.5 Auch wenn das System vielleicht weniger un­so­zial ist, kratzt es an Grundprinzipien der Justiz.

Die Algorithmen zur Sicherheitsbewertung werden als objektiv und wissenschaftlich gerühmt, dienen aber vor allem zur Bestätigung vorgefasster Überzeugungen, während das Urteil doch auf der menschlichen Beziehung und der Analyse der Tatsachen beruhen sollte. Sie verschieben die politische Diskussion hin zu mathematischen Formeln, zur Möglichkeit, die Gewichtung von diesem oder jenem Kriterium zu variieren und neue hinzuzufügen, um die Ergebnisse in eine mehr oder weniger repressive Richtung zu lenken.

Die Einführung solcher digitalen Instrumente in Städten und Bundesstaaten hat einen riesigen Markt geschaffen. In Wisconsin stattet das Unternehmen Equivant (vormals North Point) die Gerichte mit ihrer Software Compas aus. „Sie treffen Entscheidungen, wir entwickeln die Software, die Ihnen dabei hilft“, wirbt das Start-up, das auch in Kalifornien und Florida aktiv ist.

Anders als beim PSA weiß man nicht, wie Compas funktioniert und wie die Kriterien entwickelt werden, um Vorhersagen zu treffen. Verwendet die Software die Arbeitsstelle, den Berufsabschluss oder die Adresse, wie andere Algorithmen privater Unternehmen? „Geistiges Eigentum“, „Geschäftsgeheimnis“, droht die Firma, die auf unsere Interviewanfrage nicht reagiert hat.

Eric L. Loomis hat versucht, die Undurchsichtigkeit zu durchdringen, deren Opfer er wurde. 2013 wurde er wegen einer Schießerei angeklagt und zu sechs Jahren Gefängnis verurteilt, weil der Algorithmus eine sehr hohe Rückfallwahrscheinlichkeit berechnet hatte. Da er keine Informationen darüber erhielt, wie die Software funktioniert, sah er sein Recht auf einen fairen Prozess verletzt und brachte die Angelegenheit vor den Wisconsin Supreme Court.

„Das Gericht weiß nicht, wie die Software die Geschichte des Beschuldigten mit der Referenzgruppe vergleicht“, plädierte ein Experte, der von Loomis’ Anwalt eingeladen worden war. „Es weiß nicht einmal, ob es sich um eine Kohorte aus Wisconsin, New York oder Kalifornien handelt. Es gibt viele Informationen, die das Gericht nicht hat, dadurch wird es am Ende getäuscht, wenn ihm Grafiken gezeigt werden, die ihm dazu dienen, die Strafe festzulegen.“

Die Richterin Ann Walsh Bradley wies die Klage zurück: Loomis kenne zwar die verschiedenen Faktoren nicht, die berücksichtigt wurden, habe aber die Vorhersage des Algorithmus diskutieren können. Der Prozess sei also fair gewesen, weil die Strafe nach verschiedenen Erwägungen festgelegt worden sei und der Richter seine Entscheidungshoheit gewahrt habe.6 Der vom Verurteilten angerufene Oberste Gerichtshof der USA hat es abgelehnt, sich mit dem Fall zu befassen.

Aber warum bedient man sich eines Algorithmus, wenn man sich dann darauf beruft, dass der Richter ihm nicht folgen muss? Software zur Unterstützung von Gerichtsentscheidungen erfüllt tatsächlich eine Aufgabe, die der Strafgerichtsbarkeit zukommt, nämlich künftige Verbrechen zu verhindern, indem sie versucht, das Verhalten von Individuen anhand ihrer vergangenen Taten vorherzusagen.

Das ist nicht neu. Wie der Juraprofessor Bernard Harcourt zeigt, versucht die US-Justiz schon lange, die Gefährlichkeit von Kriminellen mit angeblich wissenschaftlichen Methoden zu be­wer­ten.7 Die Algorithmen haben die Möglichkeit geschaffen, aus den biografischen Angaben hunderttausender Personen Schlussfolgerungen über die Zukunft eines Individuums zu berechnen. Dabei müsse man sich vielmehr fragen: „Wer wurde kontrolliert, wer wurde wegen Fahren ohne Ticket vorgeladen, auf wen konzentriert sich die Polizei? Die Vorgeschichte zeigt nicht, wer Straftaten begangen hat, sondern wer verhaftet wurde.“

Heilmittel gegen überfüllte Gefängnisse und rassistische Diskriminierung? Allmächtiges Instrument, das den Gerichten ihre Entscheidungen diktiert? Weder noch. Die Algorithmen dienen dazu, die Vorteile der vorausschauenden Justiz zu legitimieren und den Rich­te­r:in­nen weniger Verantwortung aufzuladen.

1 Siehe Charlotte Recoquillon, „Erkaufte Freiheit“, LMd, September 2023.

2 Samantha Melamed, „Will controversy over risk assessments break Philly’s touted criminal-justice reform collaboration?“, The Philadelphia Inquirer, 8. Mai 2019.

3 „Philadelphia, PA“, Safety and Justice Challenge, 27. Oktober 2013.

4 Julia Angwin und andere, „Machine Bias – There’s software used across the country to predict future criminals. And it’s biased against blacks“, ProPublica, 23. Mai 2016.

5 Angaben der Gefängnisbehörde von New Jersey.

6 State of Wisconsin v. Loomis, No. 2015AP157-CR, Supreme Court of Wisconsin.

7 Bernard E. Harcourt, „Against Prediction: Profiling, Policing, and Punishing in an Actuarial Age“, Chicago (The University of Chicago Press) 2006.

Aus dem Französischen von Claudia Steinitz

Raphaël Kempf ist Anwalt und Autor von „Violences judiciaires. La justice et la répression de l’action politique“, Paris (La Découverte) 2022.

Le Monde diplomatique vom 11.04.2024, von Raphaël Kempf