AI人脸识别将软件工程师错认为百英里外的窃贼
软件工程师阿尔维·乔杜里因AI人脸识别错误而遭警方逮捕并羁押10小时。研究数据显示,该系统对亚裔及黑人面孔的误识别率远高于白人,系统性偏见问题引发广泛关注。
当算法犯下惊天大错
如果你需要证明人工智能还远未准备好扮演侦探的角色,那就来认识一下阿尔维·乔杜里吧。这位26岁的软件工程师今年一月正在南安普顿父母家中居家办公,警察突然登门,将他逮捕并羁押了将近10小时。他的所谓罪行?是在大约100英里外的弥尔顿凯恩斯佛教精舍发生的一起入室盗窃案,案值3000英镑的现金及珠宝于2025年12月失窃。
问题在于:乔杜里根本没有作案。完全不沾边。闭路电视画面中的嫌疑人据报道比他年轻约10岁,肤色更浅、鼻子更大、没有胡须,面部特征也完全不同。可以说,两人之间的相似之处,充其量只是牵强附会。
这一切究竟如何发生的?
造成这次错误逮捕的元凶,是泰晤士河谷警察局使用的自动人脸识别系统,该系统由德国公司Cognitec开发。这套软件每月处理约25000次搜索,将图像与一个包含约1900万张警方照片的数据库进行比对。系统将乔杜里标记为盗窃嫌疑人的匹配对象。
尤为令人愤慨的细节在于:乔杜里的照片之所以存在于系统中,正是因为他此前曾遭受过警方的错误对待。2021年,他在朴茨茅斯读大学时遭人袭击,随后莫名其妙地反被逮捕。他最终被释放,未受进一步追究,但照片却留在了档案里。于是,建立在有缺陷数据之上的系统,产生了有缺陷的结果。这其中有一种令人心寒的讽刺意味。
泰晤士河谷警察局坚称逮捕行为合法,辩称人脸识别技术"提供了情报线索,但并未决定逮捕行动",并表示警员在采取行动前已进行了自主的视觉研判。乔杜里对此解释显然难以信服,这完全可以理解。
那些令人忧虑的数字
这不只是一次不幸的误判。2025年12月发布的一项内政部委托研究,揭示了这项技术在不同族裔群体中准确性方面令人极度不安的数据:
- 0.04% 白人面孔的误匹配率
- 4% 亚裔面孔的误匹配率
- 5.5% 黑人面孔的误匹配率
换个角度来看,该系统对亚裔人士的错误识别概率是白人的100倍。黑人女性被误识别的概率则几乎是白人男性的250倍。这不是统计误差,而是被嵌入算法本身的系统性缺陷。据悉,该系统所使用的技术可追溯至2020年,内政部目前正着手进行替换。
奋起反抗
乔杜里并未选择沉默。他公开接受ITV《早安英国》节目采访,讲述了自己的亲身经历,形容人脸识别系统的输出结果充斥着"骇人听闻的错误"。他目前正采取法律行动,委托专业律师伊恩·古尔德代理,向泰晤士河谷警察局及汉普郡警察局索取赔偿。
他也并非孤军奋战。平等与人权委员会已同意支持相关法律案件。此外,埃塞克斯警察局于2026年3月暂停了其实时人脸识别部署,原因是剑桥大学的一项研究发现其系统存在种族偏见。
更宏观的思考
此案揭示了现代警务中一个根本性的矛盾。人脸识别技术承诺带来高效,但一旦出错,其错误的代价往往由有色人种群体不成比例地承担。一个无辜的人,仅仅因为算法认定他的脸"足够接近",就在警察牢房里度过了10小时。这不是小小的不便,而是一个社会正被要求愈发信任的系统所犯下的严重失误。
在这项技术能够证明其对所有族裔群体都具备真正准确性之前,类似乔杜里这样的案例将会持续发生。坦率地说,"电脑这么说的",绝不应该成为给任何人戴上手铐的充分理由。
阅读原文,请访问 来源。
