Drücken Sie „Enter“, um den Inhalte zu überspringen

Polizei und KI: Vom Iris-Scan bis zum automatischen Aufstandsmelder

Dieser Artikel stammt von Netzpolitik.org.

Polizei und KIVom Iris-Scan bis zum automatischen Aufstandsmelder

Ein Europol-Bericht zur polizeilichen Nutzung sogenannter KI gibt Einsichten in Gegenwart und Zukunft der Ermittlungsarbeit. Er zeigt, was europäische Polizeien können und was sie können wollen.


Martin Schwarzbeck – in Überwachungeine Ergänzung
Das kommt heraus, wenn man KI nach einem Bild KI-gestützter Videoüberwachung fragt. – Public Domain Midjourney

Die europäische Polizeibehörde Europol, die die nationalen Polizeien koordiniert, hat einen Bericht zum Einsatz von sogenannter Künstlicher Intelligenz veröffentlicht. Europol sieht in der Technologie großes Potenzial. Im Bericht, im Original auf Englisch, heißt es: „KI hat die Fähigkeit, die Polizeiarbeit erheblich zu verändern; von fortschrittlicher Kriminalanalytik, die Trends in riesigen Datenmengen aufdeckt, bis hin zu biometrischen Daten, die eine schnelle und eindeutige Identifizierung von Kriminellen ermöglichen.“

Im Vordergrund der Beurteilung der polizeilichen Anwendung von KI steht für Europol die Effizienz der Systeme. „Mithilfe von KI-gesteuerten Analysetools können Ermittler beispielsweise Millionen von Finanztransaktionen analysieren und Anomalien wie verdächtige Geldbewegungen erkennen, um Betrug zu erkennen. Für Strafverfolgungsbehörden bedeutet dies eine verbesserte Fähigkeit, Kriminalitätsmuster zu analysieren und zu verstehen […]“, heißt es im Bericht. Mit KI könnten auch polizeiliche Ressourcen effizienter verteilt werden.

Allerdings sind für die angegebenen Beispiele seit vielen Jahren klar, dass derart große Datenmengen nur mit Software zu analysieren ist. Jetzt nennt Europol solche Mustererkennungssoftware eben KI.

Muster in kriminellen Aktivitäten

Ohne KI-Systeme stünden Ermittler*innen vor „erheblichen Herausforderungen“, was zu „langwierigen Ermittlungen und verpassten Gelegenheiten zur Festnahme von Kriminellen führen kann“. Beispielsweise sei es ohne technische Hilfe nicht möglich, die Datenmengen, die ein einziges Smartphone erzeugt, zu durchsuchen.

Mit Hilfe von KI sei es hingegen möglich, Muster in kriminellen Aktivitäten zu finden. Als Beispiel nennt Europol, dass es während warmer Monate mehr Einbrüche gäbe.

Werden mit solchen Methoden nicht nur Daten analysiert, sondern auch Szenarien prognostiziert, nennt sich das „Predictive Policing“. Dafür sammeln Polizeibehörden zum Beispiel historische Kriminalitätsdaten, aber auch sozioökonomische Daten und Daten von Sozialdiensten. Das KI-Modell verknüpft dann „Indikatoren mit der Wahrscheinlichkeit eines Verbrechens und generiert Risikobewertungen“.

Polizeiliche Kristallkugel

Eine solche Einschätzung ist für bestimmte Areale möglich, aber auch für einzelne Menschen. Dann berechnet die KI, wie wahrscheinlich es ist, dass sich eine bestimmte Person in einer kriminellen Aktivität engagiert. Das stelle allerdings das rechtsstaatliche Grundprinzip der Unschuldsvermutung in Frage, so der Bericht und sei auch nach der KI-Verordnung der EU verboten, außer damit würde nach möglichen Täter*innen bereits begangener Straftaten gesucht. Predictive Policing habe in verschiedenen EU-Mitgliedstaaten, darunter auch Deutschland, an Bedeutung gewonnen.

Die KI-Verordnung könne für die Strafverfolgungsbehörden zum Problem werden, so der Bericht. Behörden, die bereits KI-gestützte Systeme anwenden, müssten diese evaluieren und die Nutzung im Zweifelsfall beenden, was zu Problemen in der „operativen Kontinuität“ führen könne.

Dabei könnten Tools, die maschinelles Lernen nutzen, mittels Analyse von öffentlich zugänglichen Daten wie zum Beispiel Social-Media-Profilen auch Echtzeit-Einsichten generieren. „Entscheidend ist, dass dies alles mit einer Geschwindigkeit geschehen muss, die über der Geschwindigkeit liegt, mit der Kriminelle ihre digitalen Spuren löschen können“, schreibt Europol.

Sprachmodelle entschlüsseln verborgene Bedeutungen

Internetprovider könnten KI-Systeme nutzen, um terroristische Propaganda, Desinformation und illegale Inhalte zu erkennen. Dabei könne man die Systeme mit bekanntem Propagandamaterial darauf trainieren, auch neue Inhalte zu erkennen und diese an Strafverfolgungsbehörden zu melden. Dass es beim Training und bei der Nutzung solcher Systeme zu Problemen mit hohen Fehlerraten kommen kann, diskutiert der Europol-Bericht nicht.

Sprachmodelle, wie zum Beispiel ChatGPT eines ist, werden von Polizeibehörden bereits vielfach eingesetzt, so Europol. So zum Beispiel für Verwaltungsaufgaben, forensische Untersuchungen, die Analyse von Kriminalitätsdaten, die Umwandlung von Sprache in Text zur Berichterstattung und die Dokumentation krimineller Aktivitäten. Damit ließen sich Interviewprotokolle, Zeugenaussagen, Online-Kommunikation und Social-Media-Beiträge effizient zusammenfassen, analysieren oder übersetzen. Letzteres sei vor allem für die Kommunikation der Behörden untereinander relevant. Europols Secure Information Exchange Network Application (SIENA), das Strafverfolgungsbehörden aus 51 Ländern vernetzt, biete beispielsweise die Möglichkeit, Texte automatisiert ins Englische zu übersetzen.

In Cybercrime-Einheiten würden Sprachmodelle zusätzlich dafür genutzt, verborgene Bedeutungen zu entschlüsseln oder potenziell schädliche Inhalte zu kennzeichnen.

KI hilft beim Passwort-Knacken

Ebenfalls relevant, so Europol, sind die KI-Systeme bei der digitalen Forensik, also beispielsweise bei der Auswertung beschlagnahmter Smartphones. Während menschliche Experten viel Zeit benötigten, um tausende Dateien zu sortieren, sei die KI sehr schnell darin. Dementsprechend gäbe es inzwischen eine Reihe von KI-gestützten Tools zur Datenwiederherstellung und -analyse, die auch Zugang zu gelöschten Dateien und beschädigten Endgeräten ermöglichen.

Vielversprechend sei auch die Möglichkeit, mit KI Verschlüsselung leichter zu brechen. „Fortgeschrittene Verschlüsselungstechniken können für Ermittler eine ernsthafte Hürde darstellen“, heißt es im Bericht. Traditionell würde für die Entschlüsselung Brute Force genutzt, mit KI ließe sich die Zahl der zu testenden Passwörter auf Basis von Mustererkennung einengen.

Mit KI ließe sich auch Internetverkehr dahingehend monitoren, ob sich im Datenstrom Hacking- oder Phishing-Versuche verbergen. Der digitale Fußabdruck einzelner Personen könne über deren Interaktionen mit verschiedenen Geräten, von Smartphones und Laptops bis hin zu Smart-Home-Geräten, zu einem umfassenden digitalen Profil verdichtet werden.

Game-Changer Videoüberwachung

Besondere Beachtung findet im Europol-Bericht die Videoüberwachung. Dass diese computergestützt erfolgen kann, sei ein „Game-Changer“ für die Strafverfolgung. „Da Städte und Gemeinden mit einem Anstieg digitaler Bilder von Quellen wie CCTV-Kameras bis hin zu persönlichen Geräten konfrontiert sind, ist es wichtig, diese riesigen visuellen Daten effektiv zu nutzen“, heißt es im Bericht.

Bilddatenströme ließen sich in Echtzeit auf bestimmte Muster und Anomalien scannen. Bei öffentlichen Veranstaltungen könne KI-gestützte Videoanalyse Situationen identifizieren, „die Aufmerksamkeit erfordern, um sicherzustellen, dass jeder die Veranstaltung in Ruhe genießen kann“.

Wenn vordefinierte Bedingungen oder Szenarien erkannt würden, „wie etwa öffentliche Unruhen oder potenzielle Sicherheitsrisiken, kann das KI-System automatisch detaillierte Vorfallberichte erstellen und/oder Warnungen an die Beamten senden“. Die Echtzeitanalyse sei allerdings nach der KI-Verordnung der EU verboten. Ausnahmen gelten für die Suche nach Opfern von Verbrechen, die Verhinderung von Terroranschlägen und die Suche nach Täter*innen schwerer und Organisierter Kriminalität. Polizeieinheiten im Vereinigten Königreich und in EU-Staaten hätten die Echtzeitanalyse von Videoströmen mit unterschiedlichem Erfolg getestet.

Schlüsselinstrument biometrische Fernidentifizierung

Biometrische Fernidentifizierung habe sich als „Schlüsselinstrument“ der Strafverfolgungsbehörden erwiesen. Beispielsweise könnten damit Verdächtige gefunden werden, oder andere „Personen von Interesse“.

Nützlich sei die KI auch bei der Analyse von Fingerabdrücken. „Sie könnte diesen Bereich revolutionieren“, heißt es im Bericht. Denn sie funktioniere sehr schnell und könne auch verschmierte oder nur teilweise vorhandene Abdrücke identifizieren.

Stimmerkennung könne zudem genutzt werden, um beispielsweise Teilnehmer*innen von Telefongesprächen zu identifizieren. Außerdem sei der Iris-Scan eine Methode, die zunehmend häufiger in der Strafverfolgung eingesetzt würde. Auch Ganganalyse sei ein aufstrebendes Feld, das insbesondere dort nützlich sei, wo andere Identifizierungsmethoden nicht möglich sind.

„Unfaire und voreingenommene Ergebnisse“

Besonders heikel ist die biometrische Kategorisierung. Während es per KI-Verordnung der EU verboten ist, diese zur Identifizierung von sexuellen oder politischen Orientierungen, religiösen Vorstellungen oder Behinderungen zu nutzen, sofern dies nicht zur Ermittlung von Opfern unternommen wird, kann die biometrische Kategorisierung recht frei eingesetzt werden, um Geschlecht und Alter betroffener Personen zu schätzen. Dies sei beispielsweise bei der Einschätzung des Alters von Opfern von Missbrauchsdarstellungen oder digitaler bildbasierter Gewalt relevant.

Der Europol-Bericht benennt auch Probleme der KI-Einsätze. Jede Verzerrung der zugrundeliegenden Daten könne „unbeabsichtigt zu unfairen oder voreingenommenen Ergebnissen führen“. Daten, die zum Trainieren von KI-Systemen verwendet werden, könnten Vorurteile und diskriminierende Praktiken widerspiegeln. Die KI könne zu „unverhältnismäßiger Überwachung unschuldiger Personen“ führen oder auch gegen bestimmte Gruppen missbraucht werden.

Diskriminierende Rückkopplungsschleifen

„Wenn beispielsweise ein bestimmtes Viertel in der Vergangenheit aufgrund rassistischer oder sozioökonomischer Vorurteile übermäßig überwacht wurde, könnte ein auf diesen Daten trainiertes KI-System darauf hinweisen, dass das Gebiet anfälliger für kriminelle Aktivitäten ist. Solche Ergebnisse könnten zu einer Rückkopplungsschleife führen, die dazu führen könnte, dass die Strafverfolgungsbehörden diesen Bereich weiterhin übermäßig überwachen, wodurch unverhältnismäßig viele Straftaten festgestellt werden und die in den Daten vorhandenen Verzerrungen verstärkt werden“, heißt es im Bericht.

Es sei wichtig, dass Vollzugsbeamte und auch Betroffene die Logik hinter den KI-Entscheidungen nachvollziehen könnten. Ansonsten steige die Gefahr von Misstrauen, Missbrauch und Ungerechtigkeit. Allerdings arbeite KI mit einer Komplexität, die über das menschliche Verständnis hinausgeht. Zu klären sei auch, wer letztlich für die Entscheidungen der KI-Systeme verantwortlich sei.

Für die Zukunft benennt Europol noch weitere technische Tools, die bei der Polizeiarbeit nützlich werden könnten. Quantencomputer beispielsweise, die die Performance von KI-Systemen auf ein „beispielloses Niveau“ heben könnten, oder auch die verbreitete Nutzung von KI-gestützten Drohnen oder Robotern.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Martin Schwarzbeck

Views: 0
Domain reseller professional. Die sonett händedesinfektion sicher verwenden. Unsere business webhosting pakete sind ideal für unternehmen jeder größe.