ШІ-система розпізнавання облич переплутала інженера-програміста з грабіжником за 160 кілометрів від нього
Алві Чоудхурі провів 10 годин під вартою через помилку ШІ-розпізнавання облич. Його справа розкриває расову упередженість алгоритму та системні збої у британській поліції.
Коли алгоритм помиляється катастрофічно
Якщо вам колись були потрібні докази того, що штучний інтелект ще не готовий грати роль детектива, познайомтеся з Алві Чоудхурі. 26-річний інженер-програміст працював вдома у батьків у Саутгемптоні ще в січні, коли до його дверей прийшла поліція, заарештувала його і тримала під вартою майже 10 годин. Його нібито злочин? Пограбування в буддистському віхарі Мілтон-Кінс, приблизно за 160 кілометрів, де у грудні 2025 року були викрадені £3 000 та ювелірні прикраси.
Проблема в тому, що Чоудхурі цього не робив. Зовсім. А людина, знята на камеру відеоспостереження, була, за повідомленнями, приблизно на 10 років молодша за нього, зі світлішою шкірою, більшим носом, без щетини і з абсолютно іншими рисами обличчя. Можна сказати, що схожість була, в кращому разі, надуманою.
Як таке взагалі сталося?
Винуватцем незаконного арешту стала автоматизована система розпізнавання облич поліції Темзької долини, розроблена німецькою компанією Cognitec. Програмне забезпечення щомісяця обробляє приблизно 25 000 запитів, порівнюючи зображення з базою даних із близько 19 мільйонів поліцейських фотографій. Саме воно визначило Чоудхурі як збіг із підозрюваним у пограбуванні.
І ось найбільш обурливий факт: фотографія Чоудхурі опинилася в системі лише через попередній незаконний контакт з поліцією. Ще у 2021 році, навчаючись в університеті в Портсмуті, він сам зазнав нападу, але чомусь саме він і був заарештований. Його звільнили без жодних подальших дій, але фотографія залишилась у базі. Тож система, побудована на хибних даних, видала хибний результат. У цьому є певна похмура іронія.
Поліція Темзької долини стверджує, що арешт був законним, наполягаючи на тому, що технологія розпізнавання облич "надала оперативну інформацію, але не визначала рішення про арешт" і що офіцери зробили власну візуальну оцінку перед тим, як діяти. Чоудхурі, цілком зрозуміло, вважає таке пояснення непереконливим.
Цифри, які мають стурбувати всіх
Це не просто один невдалий збіг обставин. Дослідження, замовлене Міністерством внутрішніх справ у грудні 2025 року, виявило вкрай неприємну статистику щодо точності технології для різних демографічних груп:
- 0,04% хибних збігів для облич білих людей
- 4% хибних збігів для облич азіатів
- 5,5% хибних збігів для облич темношкірих людей
Якщо пояснити простіше: система у 100 разів частіше помилково ідентифікує азіата, ніж білу людину. Темношкірі жінки майже у 250 разів частіше піддаються помилковій ідентифікації, ніж білі чоловіки. Це не похибки округлення. Це системні збої, закладені в сам алгоритм, який, за повідомленнями, використовує технологію 2020 року, яку Міністерство внутрішніх справ наразі замінює.
Боротьба за справедливість
Чоудхурі не замовчав цю ситуацію. Він з'явився на ранковому шоу Good Morning Britain на телеканалі ITV, щоб публічно розповісти свою історію, назвавши результати роботи системи розпізнавання облич "жахливими помилками". Тепер він вживає правових заходів, домагаючись компенсації від поліції Темзької долини та Гемпширської поліції; його інтереси представляє спеціалізований адвокат Іен Гоулд.
Він також не один у своїй боротьбі. Комісія з рівності та прав людини погодилася підтримати пов'язані судові справи, а поліція Ессексу окремо призупинила розгортання системи розпізнавання облич у режимі реального часу у березні 2026 року після того, як дослідження Кембриджського університету виявило расову упередженість у їхній системі.
Загальна картина
Ця справа виявляє фундаментальне протиріччя в сучасних методах поліцейської роботи. Технологія розпізнавання облич обіцяє ефективність, але коли вона помиляється, вона робить це у спосіб, який непропорційно сильно б'є по небілому населенню. Невинна людина провела 10 годин свого життя в поліцейській камері, бо алгоритм вирішив, що обличчя досить схоже. Це не дрібна незручність. Це серйозний збій системи, якій суспільство дедалі більше мусить довіряти.
Доки технологія не зможе продемонструвати справжню точність для всіх демографічних груп, випадки, подібні до випадку Чоудхурі, повторюватимуться. І відверто кажучи, "комп'ютер так сказав" ніколи не може бути достатньою підставою для того, щоб надягати на когось наручники.
Прочитайте оригінальну статтю на джерелі.
