Künstliche Intelligenz (KI) und ihre möglichen Anwendungsbereiche sind bei Forscherinnen und Ökonomen gleichermassen in aller Munde. Sie könnte den Arbeitsmarkt umkrempeln, die Gesundheitsbranche revolutionieren oder unsere Sicherheit erhöhen. Gleichzeitig braucht es für den Nutzen von KI auch jede Menge Daten. Und können Maschinen Menschen überhaupt ersetzen?
Im Rahmen eines Webinars sprach Avenir Jeunesse deshalb mit Dominik Balogh, Chef Analyse und Entwicklung bei der Stadtpolizei Zürich, und Pascal Lago, Verantwortlicher Sicherheitspolitik bei Avenir Suisse, über Predictive-Policing. Das zentrale Thema: Führt die Verwendung von Algorithmen bei der Polizei zu mehr Sicherheit? Was sind die Risiken?
Straftaten verhindern, bevor sie verübt werden. Das ist das Best-Case-Szenario jeder Polizeibehörde. Daten zu verarbeiten und die richtigen Schlüsse daraus zu ziehen, ist jedoch mit grossem Aufwand verbunden. Hier kommen datengestützte Analyseverfahren ins Spiel. Dank Algorithmen, die Daten zu vergangenen Straftaten um einiges effizienter (höhere Datenmenge in kürzerer Zeit) auswerten, scheint das beste Szenario möglich. Predictive-Policing nennt sich die Methode, mit der Polizeibehörden auf der ganzen Welt versuchen, die Zahl der Straftaten zu senken. Dank technologischer Hilfe sollen Gefährder erkannt werden, ehe sie straffällig werden, oder auf Orte fokussiert werden, bevor dort Straftaten begangen werden.
Worum geht es?
Polizeibehörden in den Kantonen verwenden derzeit im Wesentlichen zwei Arten von Systemen: Die einen analysieren personenbezogene Daten und erstellen sogenannte Gefährderlisten, also Listen mit Personen mit Potential für gewisse Straftaten. Die Software wertet dabei von der Polizei ausgefüllte Fragebögen aus und weist der Person einen Gefährlichkeitswert zu. Bei den meistgenutzten Programmen der Schweiz handelt es sich um Octagon und Dyrias. Für beide spricht insbesondere, dass sie «objektiver» urteilen können als Menschen, heisst es aus Expertenkreisen. Algorithmen seien ausserdem weniger anfällig auf Fehler als Gutachten von Psychologinnen und Psychiatern.
Auf einem anderen Ansatz basieren Systeme wie Precops, das von nur drei Behörden – Aargau, Basel-Land und der Stadt Zürich – verwendet wird. Dank raumzeitbezogenen Daten sieht Precops ausschliesslich serielle Delikte wie Einbrüche voraus. Basierend auf Daten früherer Einbrüche erstellt Precops eine Karte, wo und mit welcher Wahrscheinlichkeit die Polizei in naher Zukunft mit weiteren Einbrüchen rechnen muss. Die Polizei kann so rechtzeitig Patrouillen in diese Regionen entsenden. Dominik Balogh ist bei der Stadtpolizei Zürich für dessen Umsetzung zuständig. Die Behörde greift seit 2015 auf die Unterstützung von Precops zurück.
Wirklich «smart» sind die Tools bis anhin nicht, ist Pascal Lago überzeugt: «Personenbezogene Tools sind Fragebögen, und auch Precops basiert auf Parametern. Es ist eine systematische Weiterentwicklung von Prozessen, welche auch analog erledigt werden könnten. Neu ist jedoch die Skalierung, dass immer mehr und schneller Daten verarbeitet werden.»
Bei beiden Systemen erhoffen sich Polizeistationen also eine effiziente Unterstützung in der Verbrechensbekämpfung. Die Erwartung an Algorithmen, für mehr Sicherheit zu sorgen, birgt aber auch ernstzunehmende Risiken.
Diskriminierende Algorithmen?
Welche Schlüsse Algorithmen aus den Daten ziehen, hängt auch davon ab, wie sie die einzelnen Merkmale der Taten und Täter bewerten. Das Beispiel eines Precops-ähnlichen Systems in den USA zeigte auf, wie Algorithmen den Status quo zementieren können: Menschen mit schwarzer Hautfarbe begehen in den USA vor allem aufgrund ihrer oft schlechteren sozioökonomischen Stellung in der Gesellschaft prozentual mehr Straftaten. Der Algorithmus errechnet aufgrund der ihm zugetragenen Daten, dass die Chance zur Straffälligkeit bei einem/r Afroamerikanerin überdurchschnittlich hoch ist und teilt der Polizei mit, Streifenwagen vor allem in Regionen zu positionieren, in denen prozentual mehr Farbige leben.
Bei einem System mit personenbezogenen Daten kann dies dazu führen, dass ein Afroamerikaner allein wegen der Hautfarbe als gefährlicher eingestuft würde als ein Weisser. Im Sinne von «self-fulfulling prophecies» werden dadurch auch mehr Straftaten in diesen Gegenden festgestellt. Je mehr Ressourcen die Polizei zur Überwachung eines bestimmten Ortes zur Verfügung stellt, desto grösser ist die Wahrscheinlichkeit, überproportional viele Delikte aufzudecken. Mehrere amerikanische Polizeibehörden haben aus diesem Grund entschieden, in Zukunft auf dieses System zu verzichten. Die Gefahr ist laut Balogh auch bei der Stadtpolizei Zürich bekannt, weshalb man gezielt immer wieder Streifenwagen in Gebiete entsende, die vom System nicht angezeigt werden.
Im Unterschied zu personenbezogenen Datentools wie Octagon und Dyrias funktioniert ein System wie Precops nur in Ballungszentren. In der Schweiz gibt es im Vergleich zu den USA weniger Segregation und weniger Quartiere, die mehrheitlich von einer gewissen Bevölkerungsgruppe bewohnt werden. Trotzdem müssen die Beamten verstehen, wie der Algorithmus die Parameter (Geschlecht, Tatwaffe, Vorgehen, Hautfarbe, etc.) priorisiert und entsprechende Anpassungen vornehmen, falls das Programm aus den Daten Schlüsse zieht, die sich diskriminierend auswirken.
Kenntnisse zum Kontext
Sowohl bei personen- als auch ortsbezogenen Daten manifestiert sich das Problem, dass Algorithmen im Vergleich zu Menschen eher Schwierigkeiten haben, Kontexte zu erkennen und in Entscheide miteinzubeziehen. Dominik Balogh nennt dazu folgendes Beispiel: «Precops erkennt hauptsächlich Serientaten wie zum Beispiel Einbrüche, die nach einem gewissen Schema ablaufen. Stellen wir uns ein Szenario vor, in dem ein Paar sich trennt. Das Paar streitet sich und der Freund droht, den Fernseher mitzunehmen, falls sie ihn rauswirft. Tage später, die Freundin hat den Freund tatsächlich rausgeworfen, wird bei der jungen Frau eingebrochen und einzig der Fernseher wird entwendet. Den entscheidenden Kontext dieses Ereignisses kann das System nicht einordnen.»
Eine Kriminalistin besitzt dafür ein Gespür, sowohl für eine Situation als auch für andere Menschen. «Bei solchen Feinheiten von Kontexten wird der Mensch noch lange die entscheidende Rolle spielen», zeigt sich Balogh überzeugt. Bis anhin liefert Precops der Stadtpolizei also nur die gefährdeten Gebiete. Ob die Angaben präzis sind und die Lage richtig einordnen, hängt nebst dem Algorithmus (und damit der Priorisierung der einzelnen Daten) davon ab, wie präzis der jeweilige Beamte die Daten im System eingegeben hat.
Wie erfolgreich die Unterstützung durch Algorithmen ist, lässt sich bisher nur schwer messen. Laut dem Bundesamt für Statistik sind die Einbrüche schweizweit seit 2012 um die Hälfte zurückgegangen (BFS 2020). Betrachtet man zum Beispiel den Kanton Zürich, waren die Zahlen jedoch bereits rückläufig, bevor die Stadtpolizei Zürich Precops einführte. Anhand der Zahlen kann also bisher kein Rückschluss auf einen direkten Erfolg von Precops gemacht werden. Dasselbe gilt für Predictive-Policing im Allgemeinen. Nebst einer erhöhten Effizienz dank schneller Datenauswertung spricht noch ein weiterer Punkt für einen positiven Nutzen von Predictive-Policing: Wenn Maschinen Beamte unterstützen, können Beamte mehr Zeit anderen Aufgaben widmen und die Polizeiarbeit so erfolgreicher erledigen.
Ein Hemmnis für den Erfolg von Predictive-Policing ist die föderale Struktur der Schweiz. Kantone organisieren ihre Polizeibehörden selbst. Auch in Bezug auf die Beschaffung wie zum Beispiel jene von Präventionstools sind 26 unterschiedliche Vorgehensweisen ersichtlich. In gewissen Gebieten kann es jedoch von grosser Bedeutung sein, auch die Daten von angrenzenden Kantonen zu haben, um die Gefahrenlage besser einschätzen zu können. Eine stärkere Kooperation der Kantone könnte die Effizienz und Wirksamkeit von Predictive-Policing erheblich steigern. Ein Hindernis stellt hier das derzeitige Datenschutzgesetz der Schweiz dar, das Datenaustausch zwischen den Kantonen verbietet. In einem gleichen Schritt gilt es für die Behörden auch, die IT-Infrastruktur auszubauen, um so die Kommunikation zwischen den kantonalen Behörden effizienter zu gestalten (Leese 2018). Nur so lässt sich die Informationsverarbeitung beschleunigen, um die technischen Hilfsmittel auch effektiv nutzen zu können.
Wichtig ist die Datenqualität – und die Einschätzung des Beamten
Das Ziel der Verwendung von Daten und Algorithmen in der Verbrechensbekämpfung ist eine erhöhte Sicherheit. Dieser Ansatz ist jedoch nur dann verhältnismässig, wenn gleichzeitig die Privatsphäre und der Datenschutz der Bevölkerung gewährleistet bleiben. Gesetze zum Datenschutz, die in der Schweiz gelten, verhindern derzeit einen übermässigen Eingriff seitens der Behörden. Damit dies so bleibt, müssen Gesetze und Schutz der Privatsphäre kontinuierlich an neue technische Möglichkeiten angepasst werden, ohne dass dabei Innovationen zurückgebunden werden.
Eine hohe Qualität und Quantität an Daten ermöglicht am Ende eine erfolgreiche Anwendung des Systems und trägt dazu bei, dass falsche Verdächtigungen und Ineffizienz bei der Patrouille vermieden werden können. Geschehen dennoch Fehler, liegt die Verantwortung derzeit bei der Polizei. «Wir können und müssen als Menschen beurteilen, wie wir handeln», betont Balogh. Dies mag auf den ersten Blick logisch erscheinen. Wenn jedoch der Einfluss von Maschinen auf Entscheide bei der täglichen Arbeit wächst, stellt sich die Frage, wie viel Entscheidungsmacht der Mensch noch haben soll, um seiner Verantwortung weiterhin nachzukommen.
Auch Pascal Lago ist der Meinung, dass Maschinen vor allem im zwischenmenschlichen Bereich, der bei der Polizei eine wichtige Rolle einnimmt, keine Menschen ersetzen können. «Wir sind von einem Szenario, wie es der Film ‹Minority Report› beschreibt noch weit entfernt. Diese Tools ergänzen Menschen und optimieren Ressourcen. Damit sie richtig funktionieren, wird es wohl immer den Menschen brauchen.»
Predictive-Policing steckt technologisch noch in den Anfängen. Innovationen wie die Entwicklung von Künstlicher Intelligenz spielen derzeit im Alltag der Polizei noch eine untergeordnete Rolle. Bei den verwendeten Tools wie Precops kann nur beschränkt von Künstlicher Intelligenz die Rede sein, da das Programm nicht von selber lernt.
Dies könnte sich in Zukunft ändern. Um dafür gerüstet zu sein, braucht es eine öffentliche Debatte. Nicht nur zum Datenschutz, sondern auch zur direkten Anwendung des Programms. Die Aufklärung über diese Technologien und die Möglichkeiten, die sie bieten, dürfen ihrer Verwendung nicht hinterherhinken. Teil dieser Debatte muss zum Beispiel sein, welche Implikationen es hat, wenn Maschinen und nicht Menschen entscheiden, ob eine Person verhaftet wird oder nicht. Ausserdem braucht es in der Bevölkerung Klarheit darüber, wie diese Algorithmen entscheiden. Algorithmen können die Polizeiarbeit effizienter gestalten und wichtige menschliche Ressourcen freischalten, die anderorts gebraucht werden. Die endgültige Entscheidung und die Einschätzung der Lage sollten jedoch in der Macht der Beamten bleiben.