Das aktuelle Schlagwort
Mit zunehmender Digitalisierung extendieren insbesondere die qualitativen und quantitativen Kriterien der polizeilichen Arbeit. Mathematische Algorithmen, wie Predictive Policing, halten immer mehr Einzug. Retrospektiv werden dabei eine effektivere und effizientere Ausdifferenzierung der Risikogebiete realisiert. Bei der prädiktiven Prognose werden mittels mathematischer Algorithmen Wahrscheinlichkeiten zur Ausweisung relevanter Risikogebiete bestimmt, die in Deutschland überwiegend raumbezogene, aber auch personenbezogene Verfahren implizieren. Im Rahmen einer Diskussion, z. T. am Beispiel des Phänomens Wohnungseinbruchdiebstähle, nähern wir uns inhaltlich dem Themenkomplex. Die Effizienz der fallspezifischen Datenanalyse implementiert die Registrierung immenser Datenmengen, die insbesondere durch die Qualität aber auch Quantität der relevanten Informationen eminent geprägt wird.
Das digitale Zeitalter beeinflusst immer stärker auch den polizeilichen Arbeitsalltag. So tragen bereits heute, und zukünftig noch mehr, mathematisch gesteuerte Algorithmen zur Optimierung von Analyse- und Optionsprozessen im Einsatz- und Streifendienst, im kriminalistischen bzw. kriminaltechnischen Bereich bei. Insbesondere die Visualisierung von kartografisch in Form von zwei- und dreidimensionalen georeferenzierten Karten als auch von raumbezogenen Kausalitäten, die Realisierung von Analysen, die Optimierung von Einsatzplanungen sowie Präventivmaßnahmen und nicht zuletzt das statistische Berichtwesen sollten noch explorativer in den Fokus rücken und eine zentralere Rolle bei den Polizeien einnehmen. Die Verwendung von Prognosesystemen bei der Polizei weckt nicht zuletzt die Erwartungshaltung, durch intelligentere Verknüpfung und Nutzung von Daten, Informationen und Systemen effizienter agieren bzw. operieren zu können.
Begriffserörterung
Predictive Policing bedeutet im wörtlichen Kontext übersetzt „vorausschauende Polizeiarbeit“ und wird im deutschsprachigen Raum eher mit „vorhersagebasierter Polizeiarbeit“ gebraucht. Allgemein geht es um Algorithmen, die größere Dateninformationen bzw. -mengen polizeispezifisch strukturiert analysieren, um individuelle Erscheinungsformen von Kriminalität zu prognostizieren und auf der Basis diverser kriminologischer Theorien, z. B. Broken Windows, Routine Activity Approach, Rational Choice Theory, Near Repeat Victimisation, Kontinuitäten i. S. v. kontinuierlichen Mustern, auch Musteridentifikation genannt, lokalisieren zu können.
Die Analysen des Predictive Policing basieren in erster Linie auf der Generierung umfangreicher Datenmengen aus detaillierten Lagebildern, aktuellen Ereignissen, allgemein zugänglichen Daten, perspektivisch auch von Sensordaten (Internet of Things, Smarthome) sowie aus kriminologischen Theorien, deren Kernaussagen in der Annahme darin fußen, dass aus den hinreichend vorliegenden Falldaten bzw. -zahlen auf eine erhöhte Wahrscheinlichkeit zukünftiger Kriminalität geschlossen werden kann, sodass sich bestimmte Kriminalitätsphänomene bzw. Delikte mit regionalem, aber auch überregionalem Bezug oder bei gleichen Opfern innerhalb einer kurzen Zeitspanne wiederholen.
Varianten
Beim Predictive Policing kommen sowohl raumbezogene als auch personenbezogene Verfahren zum Einsatz. Raumbezogene Verfahren zeichnen sich durch Ausweisung prädiktiver Risikogebiete mit zeitlicher Präferenz aus. Aktuell werden bei den Polizeien in Deutschland die Prädiktionsmethoden Hot-Spot-Methode, Near-Repeat-Methode und die Methode Risk Terrain Analysis eingesetzt. Personenbezogene Verfahren orientieren sich in erster Linie auf eine/r Täter/-innen- und/oder einen opferorientierten Kriminalitätsprognose. In Deutschland werden diese algorithmischen Prädiktionsverfahren (X-Sonar, Radar-iTE) insbesondere zur Identifizierung von Radikalisierungsmustern und letztlich zur Abwehr von Terrorgefahren verwendet.
Aktuell wird vermehrt an Modifizierungen der Prognosemodelle gearbeitet, um die Ausweisung der prognostizierten Risikogebiete zu optimieren und zu verifizieren.
Datenqualität/-quantität
In digitalisierten Prognoseprozessen, wie dem Predictive Policing, werden immense Datenmengen erhoben. Dabei kommt der Datenqualität eine herausragende Bedeutung zu. Insbesondere die Effizienz und Effektivität der Ergebnisse der Prozessmodelle werden durch einen sorgsamen qualitativen Umgang entsprechend gestaltet und beeinflusst; d. h. die Prozesseffizienz und der damit verbundene Erfolg der Kriminalitätsprognose, gemessen an ihrer prädiktiven Wirksamkeit, hängt entscheidend von der Qualität der relevanten Daten bzw. Informationen hinsichtlich ihrer Vollständigkeit i. S. v. Gesamtheit, Korrektheit und Redundanz ab. Eine kontinuierliche Kontrolle der prozessrelevanten Daten mittels eines Datenmanagements trägt obligatorisch zur Vermeidung von Datenqualitätsdefiziten und letztlich auch zur Prozesssicherheit bei.
Inkonsistenzen von Daten, hervorgerufen durch eine fehlerhafte direkte Dateneingabe oder manuelle Datenübertragung, lassen sich manuell oder digital durch moderne Integrationstechniken bereinigen. Sofern Datensätze in verschiedenen Systemen i. S. v. doppelter Datenhaltung in diversen Datensilos, z. B. Vorgangs- und Fallbearbeitungssystemen bzw. Analysesystemen, zwischengespeichert werden, dürfen sich diese nicht widersprechen, vor allem nicht bei der Erfassung von Primär- und Sekundärmetrik. Aus diesem Grund sollte beim Aufbau von Datenbanken, und der damit verbundenen Migration von bereits erfassten Datensätzen in ein Data-Warehouse, die Implementierung von Informationen, z. B. georeferenzierten (Primärmetrik) automatisch erfolgen, sodass fehlerhafte Adressdaten oder Ortsangaben (Sekundärmetrik) selektiert und validiert werden können, z. B. manuell oder mittels Datenbereinigungsservice.
Auch die Datenquantität spielt im Prognoseprozess eine nicht unerhebliche Rolle. Erst durch quantitative Ansätze mittels mathematischer Algorithmen wird das Prognostizieren prädiktiver Ereignisse i. S. v. Kriminalitätsprognose ermöglicht; d. h. sowohl zur Überprüfung der Plausibilitäten bzw. Wirksamkeit des Algorithmus und der damit verbundenen Sicherheit der Aussagekraft als auch zum Erkennen möglicher Zusammenhänge bzw. Beziehungen zwischen Merkmalen ist die entsprechende Datenmenge als quantitatives Merkmal erforderlich.
Diskussion
Die Ursachen für den extrem degressiven Trend des Phänomens Wohnungseinbruchdiebstähle für den Zeitraum 2015 (167.136) bis 2019 (87.145) sind komplex, different interpretierbar und verifizierbar. So spielen die Sensibilisierung der Bevölkerung und damit einhergehende Konsolidierung der Sicherheitstechnik im privaten Umfeld als aktiver und passiver Einbruchsschutz, die Strafrechtsänderung aus dem Jahr 2017 mit der Verschärfung der Mindeststrafandrohung von 1 Jahr als Verbrechenstatbestand als negative Generalprävention, die Priorisierung dieses Deliktfeldes bei den Polizeien und damit verbundenen repressiven und präventiven Ansätze und nicht zuletzt die Corona-Pandemie mit den restriktiven Quarantänemaßnahmen, z. B. immense häusliche Präsenz durch Homeoffice, sicherlich eine große Rolle. Entsprechend wird sich der degressive Trend der Fallzahlen für dieses Phänomen 2020 fortsetzen. Aus diesem Grund wäre eine Interpretation der Fallzahlen als Beweis für die effektive Wirksamkeit der Prognosemodelle nicht legitim. Die bisherigen durchgeführten, z. T. den Entwicklungsprozess begleitenden Projekt- und Evaluationsstudien reflektieren mit ihren Ergebnissen insbesondere im urbanen Raum moderate bis z. T. hohe Effekte, hingegen im ländlichen Raum geringe bzw. keine Effekte. Inwieweit diese Effekte unmittelbar die effektive Wirksamkeit des Prognosemodells und letztlich die Reduzierung des Kriminalitätsaufkommens basierend auf den Ergebnissen des Prognosemodells reflektiert, konnte in unabhängigen empirischen Studien im deutschsprachigen Raum nur teilweise verifiziert werden.
Bei der Diskussion um die Wirksamkeit der Prognosemodelle insbesondere im internationalen Vergleich sollte nicht außer Acht gelassen werden, dass in Deutschland das Prognostizieren prädiktiver Ereignisse mittels mathematischer Algorithmen im Kontext zur praktischen Polizeiarbeit an die Einhaltung der datenschutzrechtlichen Bestimmungen gebunden ist und somit originär raumbezogene Verfahren Anwendung finden (Ausnahmen angeführt). Aus diesem Grund wäre eine konsequentere, aber auch adäquatere Parametrisierung von für den Algorithmus relevanter Parameter, d. h. stärkere Reflexion auf die Implementierung infrastruktureller und sozioökonomischer Informationen als Umweltindikatoren, z. B. Demografie, Gebäudestruktur, Verkehrsanbindung, Kaufkraftverhalten, Mobilitätsverhalten, Einbruchsaufkommen, Einkommensverteilung, Wetterdaten, Einkaufs- und Freizeitinfrastruktur zielführend. Dabei scheint der multifaktorielle Ansatz, wie die Risk-Terrain-Methode als nicht originär falldatenorientierte Analysemethode, wie im Bundesland Nordrhein-Westfalen bereits umgesetzt und künftig auch im Bundesland Bayern favorisiert, im deutschsprachigen Raum erfolgversprechender zu sein. Auch modifizierte falldatenorientierte Near-Repeat-Ansätze werden durch die Assoziation mit weiterführenden allgemeinen Informationen bzw. Daten, d. h. neben aktuellen Ereignissen, allgemein zugänglichen Daten sowie perspektivisch auch Sensordaten, hinsichtlich ihrer prädiktiven Prognose auch optimiert werden. Letztlich dürfte eine Kombination aus verschiedenen Ansätzen und einer Vielzahl an internen und externen Parametern die Prognosewirksamkeit positiver gestalten.
Letztlich hängt der Erfolg des prädiktiven Ansatzes immens von der Determiniertheit und Präzision der sich an die Prognose anschließenden repressiven oder präventiven Exekutivmaßnahmen ab. Aus polizeilicher Sicht definiert sich der Begriff Erfolg insbesondere über konkrete unmittelbare i. S. v. wahrgenommene Parameter, z. B. Festnahmen oder Tatverdächtigenzahl, wogegen die indirekte Form eher zur Inakzeptanz führt. Somit impliziert Wissensmanagement i. S. v. Transferleistung bei Predictive Policing entsprechende Wirkmechanismen, um über den angeregten Kommunikationsprozess Transparenz zu dokumentieren, die letztlich sich in der Motivation der betreffenden Personen widerspiegelt.
Der Prognoseprozess des Predictive Policing ist überwiegend fallzahlenorientiert ausgerichtet. Der Datenerfassungsprozess, v. a. der für die prädiktive Prognose relevanter Daten, wird bei den Polizeien mittels länderspezifischer Vorgangsbearbeitungssysteme i. d. R. manuell im Nachgang, d. h. nach Tatortaufnahme, realisiert und ist hinsichtlich der Datenqualität risikobehaftet. Um die relevante Datenqualität in diesem Datenerfassungsprozess zu gewährleisten, sind Pflichtfelder sowie automatisierte Prüfungen an ausgewählten Prozesspunkten implementiert. Aktuell wird im Prognoseprozess auf ein Phänomen (Wohnungseinbruchdiebstähle) abgestellt und faktisch von übrigen Kriminalitätsaufkommen entkoppelt betrachtet. Aus kriminalistischer Sicht, insbesondere unter Berücksichtigung der mit der prädiktiven Prognose zu erfassenden Zielgruppe (semi-/professionelle, planmäßig vorgehende Bande/Gruppe, ggf. mit Bezug zur Organisierten Kriminalität), erscheint diese Vorgehensweise nicht erfolgversprechend. Aus diesem Grund wäre ein Prognosemodell mit einem ganzheitlichen und phänomenübergreifenden Ansatz mit individuellen Optionen für Parameterselektionen, orientiert am Modus Operandi, optimierbar und wahrscheinlich zielführender hinsichtlich der prädiktiven Prognose.
Die im deutschsprachigen Raum veröffentlichten Evaluationsstudien befassen sich in dem Evaluationsprozess originär nur mit der Gruppe der Exekutive. Eine solche Evaluationsstudie kann in erster Linie als Qualitätsmerkmal zur Prüfung der Wirksamkeit interner polizeilicher Prozessabläufe insbesondere in den Bereichen des Wissens‑, Qualitätsdaten- und Personalmanagement herangezogen werden. Im Rahmen einer wissenschaftlichen, unabhängigen Evaluationsstudie sollten zur Gewährleistung einer objektiven Reflexion i. S. v. Wirksamkeitsprüfung neben der Gruppe der Exekutive auch Teile der Bevölkerung allgemein, aus pragmatischen Gründen regional begrenzt, und insbesondere die Gruppe der Geschädigten einbezogen werden und zu kriminalgeografischen und -politischen sowie sozioökonomischen und infrastrukturellen Parametern, aber auch zur gefühlten Sicherheit bis hin zur Wahrnehmungsreflexion polizeilicher Arbeit befragt werden; sofern umsetzbar, sollten auch die Gruppe der Täter/-innen in einem solchen Prozess integriert werden, sodass auf prädiktive Prozesse abgestellt werden kann. Nachweislich ändert der unmittelbar betroffene Personenkreis i. S. v. Geschädigten des Phänomens Wohnungseinbruchdiebstähle sein Verhalten insbesondere im Bereich des Sicherheits- und Präventionsverlauf, sodass nachträgliche Maßnahmen zur Sicherung der Wohnung bzw. des Wohnobjektes sich deliktsmindernd auswirken; analoges Verhalten ist von Personen zu erwarten, die in unmittelbarer oder mittelbarer Nachbarschaft wohnen, sodass diese Personengruppen prädestiniert für Befragungen wären.
Ausblick
Das Interesse und die Implementierung mathematischer Algorithmen zur effizienteren und effektiveren Gestaltung der polizeilichen Arbeits- und Entscheidungsprozesse gewinnt immer mehr an Bedeutung. Gerade die Effizienz und Effektivität der Algorithmen hängt dabei im entscheidenden Maß von der Datenqualität ab, die wiederum durch ein funktionierendes Qualitäts- und Wissensmanagementsystem sowie Personalmanagement optimiert werden kann. Tendenziell wird die prädiktive Prognose optional auch mit anderen mathematischen Algorithmen verknüpft werden, z. B. zum Erkennen von analogen Wohnungen bzw. Wohnobjekten aus Luftbildern. Aktuell wird die Qualität der Vorhersagen in erster Linie von einem minimalistischen theoretischen Modellansatz getragen. Mit fortschreitender Digitalisierung – Big Data & Internet of Things – werden die quantitativen und qualitativen Anforderungen an polizeiliche Arbeit wachsen. Dabei wird die Erhebung und Verwertung nichtpolizeilicher Daten i. S. v. Umwelt- und Zeitdaten auch in Zukunft für polizeiliche Prognosen immens an Bedeutung zunehmen. Dabei sind ganzheitliche Lösungsansätze, die eine Vielzahl von Algorithmen in den polizeilichen Datenbearbeitungs- und -verarbeitungssystemen implementieren, zu favorisieren. Mit Blick auf die Zukunft der Vorhersage von Kriminalität gerichtet, ist davon auszugehen, dass sich Predictive Policing dauerhaft etablieren und auch stärker ausdifferenzieren lassen wird.
Zur einfacheren Lesbarkeit wurden die Verweise entfernt.
Informatik Spektrum; Roman Povalej, Dirk Volkmann; 29.01.2021
https://link.springer.com/article/10.1007/s00287-021-01332-4