AI Gezichtsherkenning Verwart Software Engineer met Inbreker op 160 Kilometer Afstand
Alvi Choudhury werd ten onrechte gearresteerd door AI-gezichtsherkenning die hem verwarde met een inbreker. Wat dit zegt over de gevaren van algoritmisch politiewerk.
Wanneer het Algoritme het Spectaculair Fout Heeft
Als je ooit bewijs nodig had dat kunstmatige intelligentie nog lang niet klaar is om detective te spelen, maak dan kennis met Alvi Choudhury. De 26-jarige software engineer werkte thuis bij zijn ouders in Southampton toen de politie in januari op zijn deur klopte, hem arresteerde en hem bijna 10 uur in hechtenis hield. Zijn vermeende misdaad? Een inbraak in de Milton Keynes Boeddhistische Vihara, zo'n 160 kilometer verderop, waarbij in december 2025 voor 3.000 pond en sieraden was gestolen.
Het probleem? Choudhury had er niets mee te maken. Helemaal niets. De persoon op de beveiligingscamera leek naar verluidt zo'n 10 jaar jonger, had een lichtere huidskleur, een grotere neus, geen gezichtsbeharing en totaal andere gelaatstrekken. Je zou kunnen zeggen dat de gelijkenis, op zijn best, ver gezocht was.
Hoe Kon Dit Gebeuren?
De boosdoener achter de onterechte arrestatie was het geautomatiseerde gezichtsherkenningssysteem van Thames Valley Police, ontwikkeld door het Duitse bedrijf Cognitec. De software verwerkt elke maand zo'n 25.000 zoekopdrachten en vergelijkt afbeeldingen met een database van ongeveer 19 miljoen politiefoto's. Het systeem markeerde Choudhury als overeenkomst met de verdachte van de inbraak.
En hier komt het bijzonder pijnlijke detail: Choudhurys foto stond alleen in het systeem vanwege een eerdere onterechte ontmoeting met de politie. Terug in 2021, tijdens zijn studietijd in Portsmouth, werd hij aangevallen en belandde hij op de een of andere manier zelf achter de tralies. Hij werd vrijgelaten zonder verdere actie, maar zijn foto bleef in het systeem staan. Een systeem gebouwd op gebrekkige data produceerde dus een gebrekkig resultaat. Er zit een zekere grimmige ironie in.
Thames Valley Police handhaafde dat de arrestatie rechtmatig was en stelde dat de gezichtsherkeningstechnologie "de informatie aanleverde maar de arrestatie niet bepaalde" en dat agenten voor de aanhouding een eigen visuele beoordeling maakten. Choudhury vindt die uitleg begrijpelijkerwijs verre van overtuigend.
De Cijfers Die Iedereen Zorgen Zouden Moeten Baren
Dit is niet zomaar een ongelukkige vergissing. Onderzoek in opdracht van het Home Office uit december 2025 onthulde verontrustende statistieken over de nauwkeurigheid van de technologie bij verschillende demografische groepen:
- 0,04% foutieve overeenkomst bij witte gezichten
- 4% foutieve overeenkomst bij Aziatische gezichten
- 5,5% foutieve overeenkomst bij zwarte gezichten
Om dat in perspectief te plaatsen: het systeem identificeert een Aziatisch persoon 100 keer vaker foutief dan een wit persoon. Zwarte vrouwen worden bijna 250 keer vaker verkeerd geidentificeerd dan witte mannen. Dit zijn geen afrondingsfouten. Dit zijn systemische tekortkomingen die in het algoritme zelf zijn ingebakken en die naar verluidt gebruikmaken van technologie uit 2020 die het Home Office nu bezig is te vervangen.
Terugvechten
Choudhury heeft dit niet stilzwijgend ondergaan. Hij verscheen bij ITV's Good Morning Britain om zijn verhaal openbaar te maken en beschreef de uitvoer van het gezichtsherkenningssysteem als bezaaid met "afschuwelijke fouten." Hij start nu een rechtszaak en vordert schadevergoeding van zowel Thames Valley Police als Hampshire Constabulary, met gespecialiseerd advocaat Iain Gould als zijn vertegenwoordiger.
Hij staat ook niet alleen in zijn verzet. De Equality and Human Rights Commission heeft toegezegd gerelateerde rechtszaken te steunen, en Essex Police schortte in maart 2026 afzonderlijk hun live gezichtsherkenning op nadat een studie van de Universiteit van Cambridge raciale vooringenomenheid in hun systeem had aangetoond.
Het Grotere Geheel
Deze zaak belicht een fundamentele spanning in de moderne politiezorg. Gezichtsherkeningstechnologie belooft efficiëntie, maar als het fout gaat, gaat het fout op manieren die mensen van kleur onevenredig hard treffen. Een onschuldig man verloor 10 uur van zijn leven in een politiecel omdat een algoritme besloot dat zijn gezicht dicht genoeg in de buurt kwam. Dat is geen kleine ongemak. Dat is een ernstig falen van een systeem waaraan de samenleving steeds vaker wordt gevraagd te vertrouwen.
Totdat de technologie aantoonbaar nauwkeurig werkt voor alle demografische groepen, zullen gevallen zoals dat van Choudhury zich blijven voordoen. En eerlijk gezegd mag "de computer zei het" nooit voldoende grond zijn om iemand in de boeien te slaan.
Lees het originele artikel op bron.
