C’est en toute discrétion que le ministère de la Justice britannique travaille actuellement sur le développement d'un algorithme conçu pour identifier les personnes susceptibles de devenir des tueurs, du moins avant que des informations rapportées par The Guardian donnent un coup de projecteur sur cet outil baptisé "projet de prédiction d'homicides". Ce dernier se nourrit de données provenant des forces de police du Royaume-Uni, cette qui comprend potentiellement des informations sur les victimes et les témoins, ainsi que sur les suspects. Publicité, votre contenu continue ci-dessous À la lecture de ce “pitch”, beaucoup d’entre vous auront sans doute pensé au film de science-fiction Minority Report, où des individus prédisaient les crimes avant qu'ils ne se produisent. Cette réalité qui nous paraissait hautement diastolique il n’y a pas si longtemps est donc en train de devenir une réalité administrative et judiciaire au Royaume-Uni. Bien sûr, l'utilisation d'algorithmes prédictifs dans le domaine de la justice pénale n'est pas une nouveauté. Mais son application à la prédiction de crimes aussi graves que les homicides est sans précédent. Les révélations de Statewatch L'organisation de surveillance des libertés civiles Statewatch a ainsi découvert l'existence de ce programme grâce à des demandes effectuées dans le cadre de la loi sur la liberté d'information (Freedom of Information Act). Selon les documents obtenus par ce groupe, le programme a développé son outil de prédiction en se basant sur des données policières concernant entre 100 000 et 500 000 personnes. Plus préoccupant encore, les différentes catégories d'informations partagées avec le ministère de la Justice semblent également couvrir des sujets sensibles tels que la santé mentale, les addictions, les tendances suicidaires et les handicaps. Évidemment, l'ampleur de la collecte de données et la nature sensible des informations utilisées n’a pas manqué de soulever de sérieuses questions quant au respect de la vie privée et à la protection des données personnelles. Publicité, votre contenu continue ci-dessous Ces révélations montrent en total que le gouvernement britannique semble investir des ressources substantielles dans cette approche algorithmique de la prévention du crime au regard de l'étendue considérable du projet. Des biais inhérents aux IA Sans surprise, les experts en libertés civiles et en éthique numérique sont inquiets face à ce projet. Sofia Lyall, chercheuse chez Statewatch, a déclaré : "Maintes et maintes fois, les recherches montrent que les systèmes algorithmiques de 'prédiction' des crimes sont intrinsèquement défectueux. Ce dernier modèle, qui utilise des données de notre police et du ministère de l'Intérieur institutionnellement racistes, ne fera que renforcer et amplifier la discrimination structurelle qui sous-tend le système juridique pénal." Cette critique pointe du doigt un problème récurrent dans les systèmes de justice prédictive : les algorithmes sont formés sur des données historiques qui reflètent souvent les biais et les inégalités existants dans le système judiciaire. Par conséquent, ces systèmes risquent de perpétuer, voire d'amplifier, ces biais plutôt que de les corriger. De plus, la question se pose de savoir comment les prédictions algorithmiques pourraient influencer les décisions des juges, des procureurs et des agents de probation. Si l'algorithme identifie une personne comme présentant un risque élevé de commettre un homicide, cela pourrait-il conduire à un traitement différent avant même qu'un crime ne soit commis? Minority Report n’est vraiment pas si loin… Le ministère de la Justice britannique répond Face à ces remous, un représentant du ministère de la Justice a pris le temps de répondre au Guardian, affirmant : "Ce projet est mené uniquement à des fins de recherche. Il a été conçu en utilisant les données existantes détenues par le Service des prisons et de la probation de Sa Majesté et les forces de police sur les délinquants condamnés pour nous aider à mieux comprendre le risque que les personnes en probation commettent des actes de violence grave. Un rapport sera publié en temps voulu." Publicité, votre contenu continue ci-dessous Cette déclaration est censée rassurer sur le fait que l'outil est actuellement utilisé à des fins de recherche uniquement et qu'il se concentre sur les personnes déjà condamnées et en probation, plutôt que sur la population générale. Ce qui est déjà une bonne novelle. Néanmoins, le ministère ne répond pas vraiment aux préoccupations légitimes concernant les biais potentiels ou l'utilisation future de cette technologie. IA et application de la loi, jamais une bonne idée On pourrait penser qu'il est logique et même sain que les forces de l’ordre testent continuellement des solutions pour réduire les risques d’homicides. Toutefois, ce serait oublier qu’aux quatre coins de la planète, des cas problématiques ont été documentés, allant de l'utilisation de l'IA pour créer des rapports de police (une mauvaise idée selon les experts) à l'utilisation abusive de programmes comme ShotSpotter, en passant par l'adoption de technologies qui menacent la vie privée des citoyens, comme en Chine où la reconnaissance faciale est reine. L'histoire ne plaide donc pas en faveur d'une bonne mise en œuvre de ces technologies. Les systèmes de prédiction du crime ont souvent été critiqués pour leur manque de transparence, leur propension à renforcer les préjugés existants et leur incapacité à tenir compte des facteurs sociaux qui contribuent à la criminalité. Mais au Royaume-Uni, ce projet ne sort pas de nulle part et s'inscrit plutôt dans un contexte plus global où l'utilisation des technologies de surveillance et de prédiction par les autorités fait l'objet d'un débat public croissant, notamment en ce qui concerne la reconnaissance faciale et d'autres formes de surveillance de masse.