IA de Reconhecimento Facial Confunde Engenheiro de Software com Ladrão a 160 Km de Distância
Alvi Choudhury foi detido injustamente após um sistema de reconhecimento facial o identificar erroneamente como suspeito de assalto. Um caso que levanta sérias questões sobre viés racial na IA policial.
Quando o Algoritmo Erra de Forma Espetacular
Se alguma vez precisou de prova de que a inteligência artificial ainda não está pronta para fazer o papel de detetive, conheça Alvi Choudhury. O engenheiro de software de 26 anos estava a trabalhar a partir de casa, na casa dos pais em Southampton, em janeiro, quando a polícia apareceu à sua porta, o prendeu e o manteve em custódia durante quase 10 horas. O suposto crime? Um assalto no Vihara Budista de Milton Keynes, a cerca de 160 km de distância, onde £3.000 e joias tinham sido roubados em dezembro de 2025.
O problema? Choudhury não o fez. Nem por sombra. E a pessoa captada pelas câmeras de segurança aparentava ser cerca de 10 anos mais nova do que ele, com a pele mais clara, nariz maior, sem pelos faciais e com características completamente diferentes. Pode-se dizer que a semelhança era, na melhor das hipóteses, forçada.
Como É Que Isto Aconteceu?
O responsável pela detenção injusta foi o sistema automatizado de reconhecimento facial da Thames Valley Police, desenvolvido pela empresa alemã Cognitec. O software processa aproximadamente 25.000 pesquisas por mês, comparando imagens com uma base de dados de cerca de 19 milhões de fotografias policiais. O sistema identificou Choudhury como correspondendo ao suspeito do assalto.
Eis o detalhe particularmente revoltante: a fotografia de Choudhury só estava no sistema por causa de um anterior contacto injusto com a polícia. Em 2021, enquanto estudava na universidade no Porto (Portsmouth), foi agredido e acabou por ser ele próprio a ser detido. Foi libertado sem qualquer acusação, mas a sua fotografia ficou registada. Assim, um sistema construído sobre dados falhos produziu um resultado falho. Há uma certa poesia sombria nisso.
A Thames Valley Police manteve que a detenção foi legal, argumentando que a tecnologia de reconhecimento facial "forneceu a informação, mas não determinou a detenção" e que os agentes fizeram a sua própria avaliação visual antes de avançar. Choudhury, compreensivelmente, não acha essa explicação convincente.
Os Números Que Devem Preocupar Toda a Gente
Isto não é apenas um infeliz engano isolado. Uma investigação encomendada pelo Home Office em dezembro de 2025 revelou estatísticas profundamente perturbadoras sobre a precisão da tecnologia em diferentes grupos demográficos:
- 0,04% de taxa de falsa correspondência para rostos brancos
- 4% de taxa de falsa correspondência para rostos asiáticos
- 5,5% de taxa de falsa correspondência para rostos negros
Para contextualizar, o sistema tem 100 vezes mais probabilidade de identificar erroneamente uma pessoa asiática do que uma pessoa branca. As mulheres negras têm quase 250 vezes mais probabilidade de serem mal identificadas do que os homens brancos. Não são erros de arredondamento. São falhas sistémicas incorporadas no próprio algoritmo, que utiliza tecnologia que remonta a 2020 e que o Home Office está agora a substituir.
A Resposta de Choudhury
Choudhury não ficou calado. Apareceu no programa Good Morning Britain da ITV para partilhar a sua história publicamente, descrevendo os resultados do sistema de reconhecimento facial como repletos de "erros horríveis". Está agora a intentar uma ação legal, a pedir indemnizações tanto à Thames Valley Police como à Hampshire Constabulary, com o advogado especialista Iain Gould a representá-lo.
Ele não está sozinho nesta luta. A Comissão para a Igualdade e os Direitos Humanos concordou em apoiar casos legais relacionados, e a Polícia de Essex suspendeu separadamente o seu sistema de reconhecimento facial em direto em março de 2026, após um estudo da Universidade de Cambridge ter identificado preconceito racial no seu sistema.
O Panorama Geral
Este caso evidencia uma tensão fundamental na polícia moderna. A tecnologia de reconhecimento facial promete eficiência, mas quando erra, erra de formas que afetam desproporcionalmente as pessoas de cor. Um homem inocente perdeu 10 horas da sua vida numa cela policial porque um algoritmo decidiu que o seu rosto era suficientemente parecido. Isso não é um inconveniente menor. É uma falha grave de um sistema em que a sociedade está cada vez mais a ser convidada a confiar.
Enquanto a tecnologia não conseguir demonstrar uma precisão genuína em todos os grupos demográficos, casos como o de Choudhury continuarão a acontecer. E, francamente, "o computador disse que sim" nunca deve ser razão suficiente para algeidar alguém.
Leia o artigo original em fonte.
