Les systèmes d’intelligence artificielle sont de plus utilisés par les corps de police pour faire appliquer la loi au jour le jour. Les caméras d’intervention, les logiciels de reconnaissance faciale ou d’identification automatique des plaques d’immatriculation, et même les systèmes de localisation de téléphones cellulaires misent tous sur les progrès constants de l’intelligence artificielle. On peut toutefois se demander ce qui arrive lorsque des biais racistes s’intègrent à ces technologies, et qui contrôle les données servant à alimenter les algorithmes. Les biais inhérents à notre société risquent-ils d’amplifier les inégalités dans ce contexte?