Künstliche Intelligenz: Die Polizei-KI sagte, die Frau sei nicht in Gefahr. Jetzt ist sie tot
Inhalt Auf einer Seite lesen Inhalt Seite 1 Die Polizei-KI sagte, die Frau sei nicht in Gefahr. Jetzt ist sie tot Seite 2 Ein KI-System, das Femizide verhindern soll Die britische Regierung arbeitet an einem Computerprogramm, das Morde vorhersagen soll. Genauer: Es soll Menschen identifizieren, die mit hoher Wahrscheinlichkeit schwere Gewalttaten begehen werden. Das Programm wurde bisher im Verborgenen entwickelt, die britische Organisation Statewatch brachte es nun an die Öffentlichkeit. Das System analysiert Daten, die das britische Justizministerium und die Polizei von Greater Manchester liefern. Algorithmen sollen laut den nun öffentlich gewordenen Regierungsunterlagen Informationen über potenzielle künftige Straftäter auswerten – darunter solche zu psychischen Krankheiten, Süchten, Suiziden und Behinderungen sowie Vorfällen häuslicher Gewalt. Wie heikel das klingt, wissen offenbar auch die Verantwortlichen. Jedenfalls hieß das Vorhaben ursprünglich Homicide Prediction Project (Mordvorhersage-Projekt), wurde aber laut der britischen Regierung umbenannt. Es firmiert jetzt unter der weniger alarmierenden Bezeichnung Sharing Data to Improve Risk Assessment. Solche Programme, die mit künstlicher Intelligenz (KI) Straftaten vorhersagen sollen, werden auch in anderen Ländern entwickelt und erprobt. Man spricht von vorhersagender Polizeiarbeit (Predictive Policing), denn die Idee ist, Morde und andere Delikte vorherzusagen und zu verhindern, anstatt erst hinterher zu ermitteln. Aber so wünschenswert das klingt, zeigen doch bisherige Erfahrungen vor allem, dass die Systeme nicht zuverlässig funktionieren – und möglicherweise mehr Schaden anrichten, als zu helfen. Menschen werden als kriminell eingestuft, bevor sie etwas getan haben Die Bürgerrechtsorganisation Statewatch wirft der britischen Regierung vor, dass für das KI-System nicht nur Informationen von Personen verarbeitet werden, die wegen einer Straftat verurteilt wurden, sondern auch Daten von Opfern sowie Personen, die wegen Selbstverletzung oder Suchtproblemen Hilfe gesucht haben. Die Regierung bestreitet das: Es würden ausschließlich Daten von Menschen mit mindestens einer Verurteilung herangezogen, sagte ein Sprecher des Justizministeriums gegenüber dem britischen Guardian. © ZEIT ONLINE Newsletter ZEIT Geldkurs Tschüss, Finanzchaos: In acht Wochen erklären wir Schritt für Schritt, wie Sie bessere Geldroutinen aufbauen und das mit den ETFs endlich angehen. Anschließend erhalten Sie unseren Geld-Newsletter mit den besten Artikeln rund um Finanzen. Registrieren Mit Ihrer Registrierung nehmen Sie die Datenschutzerklärung zur Kenntnis. Vielen Dank! Wir haben Ihnen eine E-Mail geschickt. Prüfen Sie Ihr Postfach und bestätigen Sie das Newsletter-Abonnement. Diese E-Mail-Adresse ist bereits registriert. Bitte geben Sie auf der folgenden Seite Ihr Passwort ein. Falls Sie nicht weitergeleitet werden, klicken Sie bitte hier . Sofia Lyall, Forscherin bei Statewatch, bezeichnet das Vorhaben der britischen Regierung auf Anfrage von ZEIT ONLINE als "erschreckend und dystopisch". Die Forschung zeige immer wieder, dass algorithmische Systeme zur Vorhersage von Verbrechen fehlerhaft sind. "Dennoch treibt die Regierung die Entwicklung von KI-Systemen voran, die Menschen als Kriminelle einstufen, bevor sie etwas getan haben." Ein solches Modell werde "die strukturelle Diskriminierung, die dem Strafrechtssystem zugrunde liegt, verstärken und vergrößern", sagt Lyall. KI-Systeme, die versuchen, aus Daten die Zukunft vorherzusagen, haben praktisch immer das Problem eines sogenannten Bias – sie schreiben etwa rassistische Verzerrungen fort, die in den Daten stecken. Wenn die Polizei bisher häufiger gegen eine bestimmte Menschengruppe ermittelt, dann wird auch eine KI diese Gruppe in den Fokus nehmen. Tatsächlich zeigen etwa Untersuchungen aus Deutschland, dass eine zufällige Straßenkontrolle der Polizei statistisch viel häufiger Menschen mit Migrationshintergrund trifft als Deutsche. "Auch die Polizei ist natürlich nicht frei von gesellschaftlichen Vorurteilen", sagt die deutsche Digitalexpertin Anne Roth. Als Autorin beschäftigt sie sich seit Jahren mit den gesellschaftlichen Auswirkungen von Technologie. "Wenn die Polizei verstärkt Schwarze kontrolliert, also Racial Profiling betreibt, führt das zu einer sich selbst erfüllenden Prophezeiung, denn natürlich wird bei ihnen dann auch mehr rechtswidriges Verhalten entdeckt. So wie bei jeder anderen Bevölkerungsgruppe auch, bei der mehr kontrolliert wird." Diese Daten fließen dann in KI-Systeme, die darin die entsprechenden Muster identifizieren, nämlich dass Migrantinnen oder Muslime – vermeintlich – besonders kriminell sind. Erst recht problematisch wird das, weil computergestützte Entscheidungen auf Menschen oft besonders vertrauenswürdig wirken. Wohin das führen kann, lässt sich in Spanien beobachten. Denn auch dort gibt es ein KI-System, das Verbrechen verhindern soll. Dabei geht es um sogenannte Femizide, also Morde an Frauen, verübt von Männern. Man kann sich kaum einen Bereich vorstellen, in dem man sich mehr wünschen würde, dass die KI funktioniert, denn die Zahlen steigen: Immer mehr Frauen werden von ihrem (Ex-)Partner getötet. In Deutschland zum Beispiel gibt es fast jeden zweiten Tag einen Femizid.