ИИ-распознавание лиц перепутало инженера-программиста с грабителем за 100 миль
Алви Чоудхури провёл 10 часов под стражей из-за ошибки ИИ-распознавания лиц. Система в 100 раз чаще ошибается с азиатами, чем с белыми. Теперь он судится с полицией.
Когда алгоритм ошибается катастрофически
Если вам когда-либо требовалось доказательство того, что искусственный интеллект ещё не готов играть роль детектива, познакомьтесь с Алви Чоудхури. 26-летний инженер-программист работал из дома у своих родителей в Саутгемптоне в январе, когда к его двери явилась полиция, арестовала его и продержала под стражей около 10 часов. Его предполагаемое преступление? Ограбление буддийской вихары в Милтон-Кинс, примерно в 100 милях, где в декабре 2025 года были похищены £3 000 и ювелирные украшения.
Проблема? Чоудхури этого не делал. Даже близко. Человек, попавший в объектив видеокамеры, по имеющимся данным, выглядел примерно на 10 лет моложе него, имел более светлую кожу, крупнее нос, отсутствие растительности на лице и совершенно другие черты лица. Можно сказать, что сходство было, в лучшем случае, весьма натянутым.
Как такое произошло?
Виновником незаконного задержания стала автоматизированная система распознавания лиц полиции Темзской долины, разработанная немецкой компанией Cognitec. Программа ежемесячно обрабатывает около 25 000 запросов, сопоставляя изображения с базой данных примерно из 19 миллионов полицейских снимков. Именно она идентифицировала Чоудхури как совпадение с подозреваемым в ограблении.
И вот особенно возмутительная деталь: фотография Чоудхури попала в систему только из-за предыдущего незаконного столкновения с полицией. В 2021 году, будучи студентом в Портсмуте, он подвергся нападению, а затем каким-то образом сам оказался задержанным. Его отпустили без предъявления обвинений, но фотография осталась в базе. Таким образом, система, построенная на ошибочных данных, выдала ошибочный результат. В этом есть своя мрачная ирония.
Полиция Темзской долины настаивала на законности задержания, заявив, что технология распознавания лиц «предоставила разведывательные данные, но не определяла факт ареста», а офицеры провели собственную визуальную оценку перед тем, как действовать. Чоудхури, что вполне понятно, находит это объяснение неубедительным.
Цифры, которые должны беспокоить всех
Это не просто одна несчастная ошибка. Заказанное Министерством внутренних дел исследование, опубликованное в декабре 2025 года, выявило крайне тревожную статистику точности технологии в разрезе демографических групп:
- 0,04% ложных совпадений для белых лиц
- 4% ложных совпадений для азиатских лиц
- 5,5% ложных совпадений для чёрных лиц
Для понимания масштаба: система в 100 раз чаще ошибочно идентифицирует азиата, чем белого человека. Темнокожие женщины почти в 250 раз чаще подвергаются ошибочной идентификации, чем белые мужчины. Это не погрешность округления. Это системные сбои, заложенные в сам алгоритм, который, по имеющимся данным, использует технологию 2020 года, находящуюся в процессе замены Министерством внутренних дел.
Ответный удар
Чоудхури не стал молчать. Он появился на телеканале ITV в программе Good Morning Britain, чтобы публично рассказать свою историю, описав результаты работы системы распознавания лиц как пронизанные «чудовищными ошибками». Сейчас он ведёт судебный процесс, добиваясь компенсации от полиции Темзской долины и полиции Гэмпшира, его представляет специализированный солиситор Иэн Гулд.
Он также не одинок в своей борьбе. Комиссия по равенству и правам человека согласилась поддержать связанные судебные дела, а полиция Эссекса отдельно приостановила использование системы распознавания лиц в реальном времени в марте 2026 года после того, как исследование Кембриджского университета выявило расовую предвзятость в их системе.
Более широкий контекст
Это дело обнажает фундаментальное противоречие в современной полицейской работе. Технология распознавания лиц обещает эффективность, но когда она ошибается, её ошибки непропорционально сильно бьют по людям с небелой кожей. Невиновный человек провёл 10 часов в полицейской камере лишь потому, что алгоритм решил, что его лицо достаточно похоже. Это не мелкое неудобство. Это серьёзный сбой системы, которой общество всё активнее призывают доверять.
Пока технология не докажет подлинную точность во всех демографических группах, подобные случаи, как у Чоудхури, будут повторяться. И, откровенно говоря, слов «так сказал компьютер» никогда не должно быть достаточно, чтобы надеть на кого-то наручники.
Читайте оригинальную статью на источнике.
