Tech · 4 min read

AI人脸识别将软件工程师错认为百英里外的窃贼

软件工程师阿尔维·乔杜里因AI人脸识别错误而遭警方逮捕并羁押10小时。研究数据显示,该系统对亚裔及黑人面孔的误识别率远高于白人,系统性偏见问题引发广泛关注。

AI人脸识别将软件工程师错认为百英里外的窃贼

当算法犯下惊天大错

如果你需要证明人工智能还远未准备好扮演侦探的角色,那就来认识一下阿尔维·乔杜里吧。这位26岁的软件工程师今年一月正在南安普顿父母家中居家办公,警察突然登门,将他逮捕并羁押了将近10小时。他的所谓罪行?是在大约100英里外的弥尔顿凯恩斯佛教精舍发生的一起入室盗窃案,案值3000英镑的现金及珠宝于2025年12月失窃。

问题在于:乔杜里根本没有作案。完全不沾边。闭路电视画面中的嫌疑人据报道比他年轻约10岁,肤色更浅、鼻子更大、没有胡须,面部特征也完全不同。可以说,两人之间的相似之处,充其量只是牵强附会。

这一切究竟如何发生的?

造成这次错误逮捕的元凶,是泰晤士河谷警察局使用的自动人脸识别系统,该系统由德国公司Cognitec开发。这套软件每月处理约25000次搜索,将图像与一个包含约1900万张警方照片的数据库进行比对。系统将乔杜里标记为盗窃嫌疑人的匹配对象。

尤为令人愤慨的细节在于:乔杜里的照片之所以存在于系统中,正是因为他此前曾遭受过警方的错误对待。2021年,他在朴茨茅斯读大学时遭人袭击,随后莫名其妙地反被逮捕。他最终被释放,未受进一步追究,但照片却留在了档案里。于是,建立在有缺陷数据之上的系统,产生了有缺陷的结果。这其中有一种令人心寒的讽刺意味。

泰晤士河谷警察局坚称逮捕行为合法,辩称人脸识别技术"提供了情报线索,但并未决定逮捕行动",并表示警员在采取行动前已进行了自主的视觉研判。乔杜里对此解释显然难以信服,这完全可以理解。

那些令人忧虑的数字

这不只是一次不幸的误判。2025年12月发布的一项内政部委托研究,揭示了这项技术在不同族裔群体中准确性方面令人极度不安的数据:

  • 0.04% 白人面孔的误匹配率
  • 4% 亚裔面孔的误匹配率
  • 5.5% 黑人面孔的误匹配率

换个角度来看,该系统对亚裔人士的错误识别概率是白人的100倍。黑人女性被误识别的概率则几乎是白人男性的250倍。这不是统计误差,而是被嵌入算法本身的系统性缺陷。据悉,该系统所使用的技术可追溯至2020年,内政部目前正着手进行替换。

奋起反抗

乔杜里并未选择沉默。他公开接受ITV《早安英国》节目采访,讲述了自己的亲身经历,形容人脸识别系统的输出结果充斥着"骇人听闻的错误"。他目前正采取法律行动,委托专业律师伊恩·古尔德代理,向泰晤士河谷警察局及汉普郡警察局索取赔偿。

他也并非孤军奋战。平等与人权委员会已同意支持相关法律案件。此外,埃塞克斯警察局于2026年3月暂停了其实时人脸识别部署,原因是剑桥大学的一项研究发现其系统存在种族偏见。

更宏观的思考

此案揭示了现代警务中一个根本性的矛盾。人脸识别技术承诺带来高效,但一旦出错,其错误的代价往往由有色人种群体不成比例地承担。一个无辜的人,仅仅因为算法认定他的脸"足够接近",就在警察牢房里度过了10小时。这不是小小的不便,而是一个社会正被要求愈发信任的系统所犯下的严重失误。

在这项技术能够证明其对所有族裔群体都具备真正准确性之前,类似乔杜里这样的案例将会持续发生。坦率地说,"电脑这么说的",绝不应该成为给任何人戴上手铐的充分理由。

阅读原文,请访问 来源

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.