Patternizr: Diese Software erwischt Kriminelle in New York
-
Benjamin Jopen / Unsplash.com – Unsplash License, unsplash.com/license
- 05. Juli 2019
Räuber und Diebe mithilfe einer Computersoftware festnehmen? In New York suchen Algorithmen nach Verbrechensmustern in sämtlichen 77 Revieren. Doch wie ethisch ist es, Algorithmen Kriminelle fangen zu lassen?
Algorithmen sind inzwischen überall: Sie können vorhersehen, wann wir sterben, unterstützen junge Menschen in der Schule und steuern sogar eine ganze Gesellschaft in China. In New York City wird künstliche Intelligenz (KI) in vielen Bereichen eingesetzt, unter anderem wenn die Polizei Täter ermittelt.
Software identifiziert Spritzentäter
Ein frisches Beispiel aus der Millionenstadt: Ein Mann hat in einem Baumarkt versucht, Bohrmaschinen zu stehlen und dabei Angestellte mit einer Spritze bedroht. Die Polizei konnte ihn schnell identifizieren und festnehmen.
Der Täter hatte dasselbe Verbrechen schon ein paar Wochen früher begangen, in einem komplett anderen Polizeirevier. Das New York Police Department (NYPD) konnte ihn mithilfe einer neuen algorithmischen Computersoftware für Mustererkennung finden: Patternizr.
Die Software soll bei Verbrechen wie Diebstahl und Raub Tatmuster und bestenfalls die zugehörigen Täter finden. Früher musste das NYPD bei so einem Fall jede Menge physische Berichte und Akten durchgehen, was sehr mühsam und zeitaufwendig ist. Dank Patternizr ist das jetzt mit ein paar wenigen Knopfdrücken möglich. Außerdem kann man mit der Software Muster in der ganzen Stadt erkennen, weil sie Hunderttausende von Verbrechen in allen 77 Bereichen der Datenbank des NYPD durchsucht.
Wie ethisch sind die Algorithmen?
Eine Frage, die oft in Zusammenhang mit KI aufgeworfen wird, ist die der Fairness und Verzerrung: Wie ethisch sind die Algorithmen? Die Entwickler von Patternizr haben sensible Attribute wie zum Beispiel Geschlecht und Ethnie aus den Trainingsdaten und dem Musteridentifizierungsprozess entfernt, um Verzerrungen zu vermeiden.
Ob diese Maßnahmen aber die Voreingenommenheit beseitigen, bleibt strittig, weil das Modell auf historischen Ergebnissen basiert. Obwohl die Verzerrungen nicht explizit in den Daten erfasst sind, stehen die Vorhersagen des Modells trotzdem in Wechselbeziehung von beispielsweise Ethnie und Geschlecht. Auf das Tool allein sollten sich die Gesetzeshüter also nicht verlassen.
Über 68.000 Diebstähle und Raubdelikte
Viele fragen sich, ob algorithmische Lösungen wie Patternizr überhaupt eingesetzt werden sollen, da das Risiko für Diskriminierung besteht. Deshalb wird der menschliche Faktor weiterhin eine Rolle spielen. Auf verschiedenen Ebenen sollen Experten überprüfen, ob Patternizr Vorurteile reproduziert. Das hilft nicht nur, die Software cleverer zu machen, sondern ist auch wichtig für das Thema Verantwortung. Sollten Fehler passieren, muss ein Mensch diese übernehmen.
New York hat im letzten Jahr mehr als 68.000 Diebstähle und Raubdelikte verzeichnet. Patternizr macht es einfacher, Muster darin zu erkennen. Damit gelingt es in Zukunft möglicherweise schneller, Täter zu identifizieren und festzunehmen. Solange die menschliche Aufsicht erhalten bleibt und Analytiker unvoreingenommene Entscheidungen treffen, kann das Tool hilfreich sein und die Arbeit der Polizisten beschleunigen.
Und nicht nur in den USA, auch in Deutschland ist „vorausschauende Polizeiarbeit“ (Predictive Policing) ein heißes Eisen. Die Diskussionen über algorithmische Entscheidungsprozesse fanden lange Zeit in abgeschlossenen Kreisen statt. Mit dem Policy Brief „Vor die Lage kommen“ über Chancen und Risiken datenanalytischer Prognosetechnik wurde im letzten Jahr versucht, das Thema öffentlicher und interdisziplinärer zu gestalten.
Wie kriegt man Ethik in den Code? Damit die Digitalisierung zu denselben Chancen für alle führt, brauchen wir ethische Standards für die Algorithmen. Im Zuge dessen hat die Bertelsmann Stiftung mit Unterstützung des iRights.Lab einen Kriterienkatalog für algorithmische Systeme entwickelt: Algo.Rules.