Künstliche Intelligenz (KI) kann auch bei der Kriminalitätsbekämpfung beziehungsweise der Aufklärung von Straftaten helfen. Denn vielfach geht es hier um die Analyse großer Datenmengen, deren Ziel darin besteht, die sprichwörtliche Nadel im Heuhaufen zu finden. So taugen KI-Technologien unter anderem dazu, die Gesichter von Verdächtigen oder Opfern abzugleichen, Tatorte und Tatverläufe zu rekonstruieren, illegale Geldströme zu erkennen und Beweismaterial wie zum Beispiel Aufzeichnungen aus Überwachungsanlagen zu sichten.
Weitere wichtige Anwendungsfelder sind die Aufklärung von Cyberkriminalität und kinderpornographischen Delikten, welche vielfältige virtuelle Spuren hinterlassen, deren Verfolgung die Kriminalisten oftmals an ihre Grenzen bringt. Bei der Cyberkriminalität liegen in der Regel derart immense Datenmengen vor, dass Menschen hier komplett überfordert wären.
Im Falle des illegalen Darknet-Rechenzentrums von Traben-Trarbach musste die KI rund 1000 Datenträger durchforsten, deren Speicherkapazität bei mehr als zwei Petabyte lag – das entsprach etwa 1000 Milliarden Textseiten. Ansonsten hilft die Künstliche Intelligenz auch bei sehr komplexen Ermittlungen, wie sie unter anderem im Zuge der Entlarvung von ausländischen Produktfälschern notwendig sind. Hier gilt es, äußerst akribisch vorzugehen, um verborgene Produktionsstätten und getarnte Lieferketten aufzuspüren und gefälschte Warencodes als solche zu identifizieren.
Deshalb erklären Sicherheitspolitiker wie der rheinland-pfälzische Innenminister Michael Ebling (SPD) immer wieder voller Überzeugung: „Künstliche Intelligenz wird für die polizeiliche Arbeit der Zukunft unverzichtbar sein.“ Dabei stellt sich aber die Frage nach dem Datenschutz und weiteren rechtlichen beziehungsweise ethischen Hürden, welche bekanntlich gern umgangen werden, sobald die technischen Möglichkeiten dafür vorliegen.
Besonders heikel im Hinblick auf die Menschenrechtssituation sind KI-Verfahren, die der Kriminalitätsprognose und -prävention dienen, also keine bereits geschehenen Verbrechen aufklären, sondern zukünftige Straftaten vorhersagen und verhindern sollen. Beispielsweise führt das Chicago Police Department eine sogenannte Heatlist, auf der inzwischen mehrere tausend Personen stehen, welche mittels der KI-Algorithmen als potentielle Gefährder eingestuft wurden und seither regelmäßig die Aufforderung erhalten, Recht und Gesetz zu respektieren. Wie man mittlerweile weiß, agiert die Künstliche Intelligenz aber nicht immer so nüchtern und pragmatisch wie erhofft.
Untersuchungen von Wissenschaftlern der Stanford University und des Georgia Institute of Technology ergaben, dass KI-Systeme überraschend oft zu einer unvorhersehbaren Eskalation neigen, auch wenn die zu analysierende Situation eigentlich vergleichsweise harmlos ist. Somit laufen die Sicherheitsbehörden Gefahr, von einer paranoiden KI getäuscht zu werden und auf deren Warnrufe hin auch gegen Personen vorzugehen, welche überhaupt keine Straftaten im Sinn haben. W.K.


