Kann man Einbrüche in einer bestimmten Wohngegend vorhersagen – und sie im besten Fall sogar verhindern? Was sich anhört wie Science-Fiction könnte in naher Zukunft zu einer neuen Arbeitsmethode der Polizei werden. Dabei werden Datenbestände nach bestimmten Kriterien untersucht, um am Ende Muster zu erkennen, die eine vorausschauende Verbrechensbekämpfung ermöglichen. Im Bereich von Wohnungseinbrüchen und Autodiebstählen eignet sich das Instrument besonders gut. So lassen sich zum Beispiel bei Einbrüchen zeitlich wiederkehrende Merkmale festmachen – etwa Tageszeiten – sowie auch die Art der Objekte, die im Visier der Täter stehen, klassifizieren. Was in angelsächsischen Ländern schon längere Zeit breite Anwendung findet, wird hierzulande noch kritisch diskutiert und steckt in der Erprobungsphase.
So starteten Pilotprojekte, die das Vorhersageprogramm "Precobs" nutzen, unter anderen in München und Hannover. Bisher werden hauptsächlich polizeieigene Daten ausgewertet, so der exakte Ort und Zeitpunkt des Einbruchs sowie Daten über das Objekt, in das eingebrochen wurde. Auch die Vorgehensweisen der Einbrecher fließen in das Programm ein. Im Anschluss berechnet "Precobs" wie wahrscheinlich es ist, dass es in einem definierten Gebiet zu Folgedelikten kommen wird.
Datenschutz beim Predictive Policing
Predictive Policing will also nicht den Blick in die Glaskugel werfen, sondern auf der Grundlage von Kriminologie und Kriminalistik mit Hilfe mathematischer Formeln Eintrittswahrscheinlichkeiten berechnen. Das geschieht unter Berücksichtigung des Datenschutzes. Es ist völlig klar, dass personenbezogene Daten nicht genutzt werden und damit auch täterbezogene Informationen nicht erlaubt und zur Verwendung vorgesehen sind. Oftmals wird dies jedoch in der Öffentlichkeit vermutet und geht einher mit dem Vorwurf, es drohe der Überwachungsstaat. Das betrifft nicht nur die Methode Predictive Policing, sondern auch die Diskussion um eine Ausweitung der Videobeobachtung an kriminalitätsbelasteten Orten oder den Einsatz von Body-Cams durch polizeiliche Einsatzkräfte.
Der Einsatz neuer Techniken heißt also auch immer, der Bevölkerung diesbezüglich Ängste zu nehmen. In den USA ist Predictive Policing mittlerweile weit verbreitet und auch akzeptiert. Bereits über 90 Prozent der Polizeibehörden nutzen oder planen den konkreten Einsatz dieser polizeitaktischen Vorgehensweise. Wie der Zum Inhalt: Dokumentarfilm Zum Filmarchiv: "Pre-Crime" zeigt, werden Daten über eine Person über soziale Netzwerke in Kombination mit den Daten aus der polizeilichen Datenbank genutzt, um vorherzusagen, ob dieser Mensch möglicherweise in kriminelle Delikte verwickelt sein wird. Diese Personen landen auf einer speziellen Liste. In Deutschland ist diese Methode des Predicitve Policing nicht vorstellbar.
Vorteile neuer Methoden der Polizeiarbeit
Hierzulande geht es darum, erst einmal Akzeptanz für die neuen Methoden der polizeilichen Arbeit zu erreichen. Dafür bedarf es der Aufklärung und der Darstellung der Vorteile. Gerade die steigende Zahl der Wohnungseinbrüche brennt den Bürgerinnen und Bürgern unter den Nägeln. Die geringe Aufklärungsquote, die unter anderen auf den Personalabbau bei der Polizei in den letzten Jahren und auf andere polizeiliche Schwerpunktsetzungen zurückgeht, ruft danach, neue Wege der polizeilichen Arbeit zu beschreiten. Dazu gehören eben technische Möglichkeiten, wie die computergestützte Datenauswertung zu nutzen.
Es geht darum zu fragen, welche Datenbestände – sowohl individualisiert als auch anonymisiert – heute schon vorhanden und gesetzlich nutzbar sind. Und wie lassen sich diese Daten polizeilich effizient verwenden, um "vor die Lage zu kommen", wie die Polizei sagt. Das heißt, im Zusammenführen verschiedener Daten könnten so genaue Vorhersagen erstellt werden. Im besten Fall sorgt dann verstärkte Polizeipräsenz vor Ort dafür, Einbrüche zu verhindern.
Die Deutsche Polizeigewerkschaft (DPolG) setzt sich mit Nachdruck dafür ein, vorbeugende Kriminalitätsbekämpfung zu fördern, wie sie mit Predictive Policing möglich ist. Es ist immer richtig, wenn die Polizei ihre Informationen sinnvoll vernetzt und ihre Ressourcen gezielt einsetzt.
|
Eine große Karte mit bunten Stecknadeln, vor der Polizisten und Polizistinnen ihre Einsätze planen. Solche Szenen hat wohl jeder schon einmal in einem Film gesehen. Heute stehen die Polizeibeamten und -beamtinnen vor großen Monitoren, die Auswertung geschieht mit Software. So lange sie nur Verbrechensstatistiken in bestimmten Stadtteilen erstellt, verändert sich nicht viel. Sobald sie jedoch persönliche Daten hinzuzieht, werden zwei grundlegende Rechte aus der Europäischen Menschenrechtskonvention angetastet: Artikel 6 Absatz 2, das Recht auf Unschuldsvermutung und Artikel 8, das Recht auf Privatheit.
Hier entstehen ernste Probleme. Software ist fehlbar und immer nur so gut, wie das Modell, das ihr zugrunde liegt. Dazu gehören sowohl die Algorithmen als auch die Daten, anhand derer die Algorithmen lernen sollen. Die Beispiele im Zum Inhalt: Dokumentarfilm Zum Filmarchiv: "Pre-Crime" zeigen, dass etwa in den USA vor allem Afroamerikaner/-innen ins Visier gerieten. In Untersuchungen in Kalifornien zeigte sich laut eines Forschungsberichts des Queens Colleges in New York, dass weiße und schwarze Jugendliche in ähnlichem Maße Marihuana konsumieren, Schwarze jedoch bis zu vier Mal häufiger wegen Besitzes festgenommen werden. Wenn die Software aufgrund der Inhaftierungen empfiehlt, vermehrt Afroamerikaner/-innen zu kontrollieren, entsteht eine Rückkopplungsschleife. Vorurteile manifestieren sich in Form von Nullen und Einsen. Das führt nicht nur zu vermehrten Festnahmen in dieser Gruppe, es verringert ebenso die Chancen auf gute Ausbildung und Arbeit und begünstigt Kriminalität.
Fehler bei der Datenauswertung
Daten über Personen können falsch oder veraltet sein. Beim diesjährigen G20-Gipfel in Hamburg erhielten Mitglieder der berichtenden Presse keine Akkreditierung, weil sie plötzlich als gefährlich galten. Ein Journalist wurde durch eine Namensverwechslung zum mutmaßlichen Anhänger der rechtsextremen Reichsbürger/-innen-Bewegung. Bei einem anderen war in der Datenbank gespeichert, ihm werde das Herbeiführen einer Sprengstoffexplosion vorgeworfen. Das erwies sich schon Jahre vorher als haltlos – gelöscht wurde der Eintrag nie. Wo Daten gesammelt werden, passieren Fehler. Ziehen Maschinen automatische Schlüsse daraus, kann das für die Betroffenen schwere Folgen haben.
Eine weitere Schwierigkeit ist, dass die Algorithmen proprietär und intransparent sind. Eine demokratische Kontrolle ist so unmöglich, Fehler lassen sich kaum korrigieren. Keiner weiß genau, was verdächtig macht. Sind es die Produkte, die man in der Woche zuvor im Internet gekauft hat? Sind es die Freunde und Freundinnen, die man hat? Wer vermuten muss, dass beliebige Faktoren Einfluss auf die persönliche Gefahrenbewertung haben können, passt sein Verhalten an. Es kommt zu Abschreckung, sogenannten "Chilling Effects".
Eingriffe in die Persönlichkeitsrechte
Uns beeinflusst auch, dass es zunehmend schwieriger wird, sich unerkannt in der Öffentlichkeit zu bewegen. Derzeit läuft am Berliner Bahnhof Südkreuz ein Pilotprojekt zu "intelligenter" Videoüberwachung. Dabei soll Gesichtserkennung Passantinnen und Passanten identifizieren. Geht das System in einen Realbetrieb, werden deren Gesichter mit Fahndungsdatenbanken abgeglichen. Im zweiten Schritt soll Verhaltenserkennung erprobt werden. Da geht es darum, zu erkennen, ob jemand auf die Gleise fallen oder aber Graffitis sprühen wird. Nur: Wer legt fest, was auffällig ist? Wäre schon langes Warten am Bahnsteig potenzielles Gefahrenmerkmal?
Predicitve Policing, das Personen Gefahrenwerte zuweist, greift tief in unsere Persönlichkeitsrechte ein. Vorher sollten andere Optionen ausgelotet werden: Wohnungseinbrüche können auch mit technischen Maßnahmen wie sicheren Türschlössern reduziert werden. Kriminalitätsursachen wie soziale Ungleichheit zu bekämpfen, ist nachhaltiger, als alle unter Generalverdacht zu stellen. Eine Frage, die auch im Film gestellt wird, ist dabei zentral: In welcher Gesellschaft wollen wir leben?
|