El reconocimiento facial de IA confunde a un ingeniero de software con un ladrón a 160 kilómetros de distancia
Un sistema de reconocimiento facial identificó erróneamente a Alvi Choudhury como sospechoso de un robo. Estuvo detenido 10 horas y ahora demanda a la policía por error del algoritmo.
Cuando el algoritmo se equivoca de forma espectacular
Si alguna vez necesitabas pruebas de que la inteligencia artificial no está del todo lista para hacer de detective, conoce a Alvi Choudhury. El ingeniero de software de 26 años trabajaba desde casa en la vivienda de sus padres en Southampton en enero cuando la policía llamó a su puerta, lo arrestó y lo mantuvo bajo custodia durante casi 10 horas. ¿Su supuesto delito? Un robo en el templo budista Milton Keynes Vihara, a unos 160 kilómetros de distancia, donde en diciembre de 2025 habían sustraído 3.000 libras y varias joyas.
El problema: Choudhury no lo hizo. Ni por asomo. Y la persona captada por las cámaras de seguridad aparentaba ser unos 10 años más joven que él, con la piel más clara, la nariz más grande, sin vello facial y con rasgos completamente distintos. Podríamos decir que el parecido era, en el mejor de los casos, forzado.
¿Cómo pudo ocurrir esto?
El responsable de la detención errónea fue el sistema automatizado de reconocimiento facial de la Policía del Valle del Támesis, desarrollado por la empresa alemana Cognitec. El software procesa aproximadamente 25.000 búsquedas al mes, comparando imágenes con una base de datos de alrededor de 19 millones de fotos policiales. El sistema identificó a Choudhury como coincidencia con el sospechoso del robo.
Y aquí viene el detalle verdaderamente indignante: la foto policial de Choudhury estaba en el sistema precisamente por un anterior encuentro injusto con la policía. En 2021, mientras estudiaba en la Universidad de Portsmouth, fue agredido y, de algún modo, terminó siendo él quien fue arrestado. Fue puesto en libertad sin cargos, pero su fotografía permaneció en el archivo. Así que un sistema construido sobre datos defectuosos produjo un resultado defectuoso. Hay cierta poesía sombría en todo esto.
La Policía del Valle del Támesis mantuvo que la detención fue legal, argumentando que la tecnología de reconocimiento facial "proporcionó la información de inteligencia, pero no determinó la detención", y que los agentes realizaron su propia valoración visual antes de actuar. Choudhury, comprensiblemente, no encuentra esa explicación demasiado convincente.
Las cifras que deberían preocuparnos a todos
Esto no es un simple malentendido aislado. Una investigación encargada por el Ministerio del Interior y publicada en diciembre de 2025 reveló estadísticas profundamente inquietantes sobre la precisión de la tecnología según los distintos grupos demográficos:
- 0,04% de tasa de falsa coincidencia para personas blancas
- 4% de tasa de falsa coincidencia para personas asiáticas
- 5,5% de tasa de falsa coincidencia para personas negras
Para poner esto en perspectiva: el sistema tiene 100 veces más probabilidades de identificar erróneamente a una persona asiática que a una blanca. Las mujeres negras tienen casi 250 veces más probabilidades de ser mal identificadas que los hombres blancos. No son errores de redondeo. Son fallos sistémicos integrados en el propio algoritmo, que según los informes utiliza una tecnología que data de 2020 y que el Ministerio del Interior está ahora en proceso de sustituir.
Contraatacando
Choudhury no se ha quedado callado. Apareció en el programa Good Morning Britain de ITV para compartir su historia públicamente, describiendo los resultados del sistema de reconocimiento facial como repletos de "errores horrorosos". Ahora emprende acciones legales en busca de indemnizaciones tanto de la Policía del Valle del Támesis como de la Policía de Hampshire, con el abogado especialista Iain Gould como representante.
Tampoco está solo en esta lucha. La Comisión de Igualdad y Derechos Humanos ha acordado apoyar casos legales relacionados, y la Policía de Essex suspendió por separado su despliegue de reconocimiento facial en directo en marzo de 2026 tras un estudio de la Universidad de Cambridge que detectó sesgos raciales en su sistema.
El panorama general
Este caso pone de manifiesto una tensión fundamental en la policía moderna. La tecnología de reconocimiento facial promete eficiencia, pero cuando falla, lo hace de maneras que afectan de forma desproporcionada a las personas de color. Un hombre inocente perdió 10 horas de su vida en una celda policial porque un algoritmo decidió que su cara era suficientemente parecida. Eso no es un inconveniente menor. Es un fallo grave de un sistema en el que la sociedad tiene que confiar cada vez más.
Hasta que la tecnología no demuestre una precisión genuina en todos los grupos demográficos, casos como el de Choudhury seguirán ocurriendo. Y francamente, "el ordenador lo dijo" nunca debería ser motivo suficiente para poner a alguien esposas.
Lee el artículo original en la fuente.
