Une IA de reconnaissance faciale confond un ingénieur logiciel avec un cambrioleur à 160 km de distance
Alvi Choudhury, ingénieur logiciel, a été arrêté à tort par une IA de reconnaissance faciale. Une affaire qui révèle de graves biais raciaux dans les systèmes policiers.
Quand l'algorithme se trompe de façon spectaculaire
Si vous aviez besoin d'une preuve que l'intelligence artificielle n'est pas tout à fait prête à jouer les détectives, rencontrez Alvi Choudhury. Ce développeur logiciel de 26 ans travaillait depuis chez ses parents à Southampton en janvier lorsque la police a débarqué chez lui, l'a arrêté et l'a gardé en garde à vue pendant près de 10 heures. Son prétendu crime ? Un cambriolage au temple bouddhiste Vihara de Milton Keynes, à environ 160 km de là, où 3 000 livres sterling et des bijoux avaient été dérobés en décembre 2025.
Le problème ? Choudhury n'y était pour rien. Absolument rien. Et la personne filmée par les caméras de surveillance aurait eu environ 10 ans de moins que lui, avec un teint plus clair, un nez plus large, aucune pilosité faciale et des traits du visage entièrement différents. On pourrait dire que la ressemblance était, au mieux, tirée par les cheveux.
Comment en est-on arrivé là ?
Le responsable de cette arrestation injustifiée est le système automatisé de reconnaissance faciale de la Thames Valley Police, développé par la société allemande Cognitec. Le logiciel effectue environ 25 000 recherches par mois, comparant des images à une base de données d'environ 19 millions de photos policières. Il a désigné Choudhury comme correspondant au suspect du cambriolage.
Voici le détail particulièrement révoltant : la photo de Choudhury ne se trouvait dans le système qu'en raison d'une précédente mésaventure avec la police. En 2021, alors qu'il était étudiant à Portsmouth, il avait été agressé puis, d'une façon ou d'une autre, s'était retrouvé à être celui qu'on arrêtait. Il avait été relâché sans suite, mais sa photo était restée dans les fichiers. Un système fondé sur des données défaillantes a donc produit un résultat défaillant. Il y a une certaine poésie sombre dans tout cela.
La Thames Valley Police a maintenu que l'arrestation était légale, affirmant que la technologie de reconnaissance faciale "avait fourni le renseignement mais n'avait pas déterminé l'arrestation" et que les agents avaient procédé à leur propre évaluation visuelle avant d'agir. Choudhury, on le comprend, trouve cette explication peu convaincante.
Des chiffres qui devraient inquiéter tout le monde
Il ne s'agit pas d'une simple erreur malheureuse. Des recherches commandées par le Home Office en décembre 2025 ont révélé des statistiques profondément préoccupantes sur la précision de la technologie selon les différentes origines ethniques :
- 0,04 % de taux d'erreur pour les visages blancs
- 4 % de taux d'erreur pour les visages asiatiques
- 5,5 % de taux d'erreur pour les visages noirs
Pour mettre cela en perspective, le système est 100 fois plus susceptible d'identifier à tort une personne asiatique qu'une personne blanche. Les femmes noires sont presque 250 fois plus susceptibles d'être mal identifiées que les hommes blancs. Ce ne sont pas des erreurs d'arrondi. Ce sont des défaillances systémiques inscrites dans l'algorithme lui-même, qui utiliserait une technologie datant de 2020 que le Home Office est maintenant en train de remplacer.
Passer à l'action
Choudhury n'a pas encaissé cela en silence. Il est apparu sur Good Morning Britain sur ITV pour témoigner publiquement, décrivant les résultats du système de reconnaissance faciale comme truffés d'"erreurs horrifiantes". Il a désormais engagé une action en justice, réclamant des dommages et intérêts à la fois à la Thames Valley Police et au Hampshire Constabulary, avec l'avocat spécialisé Iain Gould pour le représenter.
Il n'est pas seul à se battre. La Commission pour l'égalité et les droits de l'homme a accepté de soutenir des affaires juridiques connexes, et la police d'Essex a séparément suspendu son déploiement de reconnaissance faciale en direct en mars 2026 après qu'une étude de l'Université de Cambridge a mis en évidence un biais racial dans son système.
La situation dans son ensemble
Cette affaire met en lumière une tension fondamentale dans les pratiques policières modernes. La technologie de reconnaissance faciale promet de l'efficacité, mais lorsqu'elle se trompe, elle le fait d'une manière qui affecte de façon disproportionnée les personnes de couleur. Un homme innocent a perdu 10 heures de sa vie dans une cellule de garde à vue parce qu'un algorithme a décidé que son visage était suffisamment proche. Ce n'est pas un simple désagrément mineur. C'est un échec grave d'un système auquel la société est de plus en plus invitée à faire confiance.
Tant que la technologie ne sera pas en mesure de démontrer une précision réelle sur l'ensemble des données démographiques, des affaires comme celle de Choudhury continueront de se produire. Et franchement, "l'ordinateur l'a dit" ne devrait jamais suffire à justifier de passer les menottes à quelqu'un.
Lire l'article original sur la source.
