Tech · 4 min read

Az MI arcfelismerő rendszer tévesen burglárt azonosított egy szoftvermérnökben 160 kilométerre

Alvi Choudhury szoftvermérnököt 10 órára fogva tartotta a rendőrség, miután egy hibás MI arcfelismerő rendszer tévesen burglárgyanúsítottként azonosította. Az ügy az algoritmus rasszos torzítását is leleplezi.

Az MI arcfelismerő rendszer tévesen burglárt azonosított egy szoftvermérnökben 160 kilométerre

Amikor az algoritmus látványosan téved

Ha valaha is szükséged volt bizonyítékra arra, hogy a mesterséges intelligencia még nem egészen kész detektívnek állni, ismerkedj meg Alvi Choudhury-val. A 26 éves szoftvermérnök otthonról dolgozott szülei southamptoni házában januárban, amikor a rendőrség megjelent az ajtajában, letartóztatta, és közel 10 órán át fogva tartotta. Állítólagos bűncselekménye? Egy betörés a Milton Keynes-i buddhista viharában, nagyjából 160 kilométerre, ahol 3000 font értékű készpénzt és ékszereket loptak el 2025 decemberében.

A baj csupán az, hogy Choudhury nem tette ezt. Még csak megközelítőleg sem. A CCTV-felvételen látható személy állítólag körülbelül 10 évvel fiatalabbnak nézett ki nála, világosabb bőrszínnel, nagyobb orral, arcszőrzet nélkül és teljesen eltérő arcvonásokkal. Mondhatjuk, hogy a hasonlóság leginkább erőltetett volt.

Hogyan történhetett ez?

A téves letartóztatás mögött a Thames Valley Rendőrség automatizált arcfelismerő rendszere állt, amelyet a német Cognitec cég fejlesztett. A szoftver havonta körülbelül 25 000 keresést végez, képeket hasonlítva össze egy körülbelül 19 millió rendőrségi fotót tartalmazó adatbázissal. Ez a rendszer jelölte meg Choudhury-t gyanúsítottként.

És itt következik az igazán felháborító részlet: Choudhury fotója csupán azért szerepelt a rendszerben, mert korábban már egyszer tévesen kerált összetűzésbe a rendőrséggel. 2021-ben, portsmouthi egyetemi éveiben megtámadták, majd valahogy mégis őt tartóztatták le. Végül minden további intézkedés nélkül elengedték, de fényképe az aktában maradt. Így egy hibás adatokon alapuló rendszer hibás eredményt produkált. Van ebben valamiféle sötét irónia.

A Thames Valley Rendőrség ragaszkodott ahhoz, hogy a letartóztatás törvényes volt, azzal érvelve, hogy az arcfelismerő technológia "információt szolgáltatott, de nem döntötte el a letartóztatást", és hogy a tisztek saját vizuális értékelést végeztek az eljárás előtt. Choudhury, érthetően, kevéssé találja meggyőzőnek ezt a magyarázatot.

A számok, amelyek mindenkit aggasztaniuk kellene

Ez nem csupán egyetlen szerencsétlen tévedés. A Belügyminisztérium által megrendelt, 2025 decemberéből származó kutatás mélyen kényelmetlenül statisztikákat tárt fel a technológia pontosságáról különböző demográfiai csoportok esetén:

  • 0,04% téves egyezési arány fehér arcok esetén
  • 4% téves egyezési arány ázsiai arcok esetén
  • 5,5% téves egyezési arány fekete arcok esetén

Hogy kontextusba helyezzük: a rendszer 100-szor valószínűbben azonosít tévesen egy ázsiai személyt, mint egy fehéret. A fekete bőrű nőket közel 250-szer nagyobb valószínűséggel azonosítják tévesen, mint a fehér férfiakat. Ezek nem kerekítési hibák. Ezek az algoritmusba épített rendszerszintű kudarcok, amely állítólag 2020-ig visszanyúló technológiát alkalmaz, és amelyet a Belügyminisztérium most éppen lecserélni igyekszik.

Az ellenállás

Choudhury nem hallgatott. Megjelent az ITV Good Morning Britain műsorában, hogy nyilvánosan megossza történetét, az arcfelismerő rendszer eredményét "szörnyű hibákkal teli"-nek nevezve. Azóta jogi lépéseket tett, kártérítést követelve mind a Thames Valley Rendőrségtől, mind a Hampshire Constabulary-tól, Iain Gould szakjogász képviseletében.

Nem ő az egyetlen, aki felszólal. Az Egyenlőség és Emberi Jogok Bizottsága vállalta, hogy támogatja a kapcsolódó pereket, és az Essex Rendőrség 2026 márciusában felfüggesztette az élő arcfelismerés alkalmazását, miután egy cambridge-i egyetemi tanulmány faji elfogultságot mutatott ki a rendszerükben.

A nagyobb kép

Ez az eset egy alapvető feszültséget világít meg a modern rendőrségben. Az arcfelismerő technológia hatékonyságot ígér, de amikor téved, olyan módon téved, amely aránytalanul érinti a színesbőrű embereket. Egy ártatlan férfi 10 óráját töltötte rendőrségi fogdában, mert egy algoritmus úgy döntötte, hogy az arca elég közel áll a keresettéhez. Ez nem kis kellemetlenség. Ez egy olyan rendszer súlyos kudarca, amelynek egyre inkább azt kell megbíznunk a társadalomban.

Amíg a technológia nem képes valódi pontosságot bizonyítani minden demográfiai csoport esetén, az olyan esetek, mint Choudhury-é, folytatódni fognak. És őszintén szólva, "a számítógép ezt mondta" soha nem lehet elegendő alap arra, hogy valakit megbilincseljünk.

Az eredeti cikket itt olvashatod: forrás.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.