Tech · 4 min read

Oprogramowanie do Rozpoznawania Twarzy Pomyliło Inżyniera Oprogramowania z Włamywaczem 100 Mil Dalej

Alvi Choudhury spędził 10 godzin w areszcie po tym, jak policyjny system AI błędnie go zidentyfikował. Sprawa ujawnia poważne błędy rasowe w technologii rozpoznawania twarzy.

Oprogramowanie do Rozpoznawania Twarzy Pomyliło Inżyniera Oprogramowania z Włamywaczem 100 Mil Dalej

Kiedy Algorytm Myli się Spektakularnie

Jeśli kiedykolwiek potrzebowałeś dowodu na to, że sztuczna inteligencja nie jest jeszcze gotowa, by odgrywać rolę detektywa, poznaj Alviego Choudhury'ego. 26-letni inżynier oprogramowania pracował zdalnie w domu rodziców w Southampton w styczniu, gdy policja zapukała do jego drzwi, aresztowała go i przetrzymywała w areszcie przez prawie 10 godzin. Zarzucano mu włamanie do buddyjskiej świątyni Vihara w Milton Keynes, oddalonej o około 100 mil, skąd w grudniu 2025 roku skradziono 3000 funtów i biżuterię.

Problem? Choudhury tego nie zrobił. Ani trochę. Osoba uchwycona na nagraniu z monitoringu była podobno około 10 lat młodsza od niego, miała jaśniejszą skórę, większy nos, brak zarostu i zupełnie inne rysy twarzy. Można by powiedzieć, że podobieństwo było, w najlepszym razie, naciągane.

Jak Do Tego Doszło?

Winowajcą bezpodstawnego aresztowania był automatyczny system rozpoznawania twarzy policji Thames Valley, zbudowany przez niemiecką firmę Cognitec. Oprogramowanie przeszukuje co miesiąc około 25 000 zapytań, porównując obrazy z bazą danych zawierającą około 19 milionów policyjnych zdjęć. System oznaczył Choudhury'ego jako potencjalnego sprawcę włamania.

Oto szczególnie irytujący szczegół: zdjęcie Choudhury'ego znalazło się w systemie wyłącznie przez poprzednie niesłuszne zatrzymanie przez policję. W 2021 roku, podczas studiów w Portsmouth, został napadnięty, a następnie w jakiś sposób to on skończył jako aresztowany. Zwolniono go bez dalszych konsekwencji, ale jego fotografia pozostała w aktach. Tak więc system oparty na błędnych danych wyprodukował błędny wynik. Jest w tym pewna gorzka ironia.

Policja Thames Valley utrzymywała, że aresztowanie było zgodne z prawem, argumentując, że technologia rozpoznawania twarzy "dostarczyła informacji wywiadowczych, ale nie zdecydowała o aresztowaniu" i że funkcjonariusze dokonali własnej wizualnej oceny przed podjęciem działań. Choudhury, co zrozumiałe, uważa to wyjaśnienie za mało przekonujące.

Liczby, Które Powinny Niepokoić Wszystkich

To nie jest odosobniona pomyłka. Badanie zlecone przez Home Office, opublikowane w grudniu 2025 roku, ujawniło głęboko niepokojące dane dotyczące dokładności technologii w różnych grupach demograficznych:

  • 0,04% wskaźnik fałszywych dopasowań dla twarzy białych
  • 4% wskaźnik fałszywych dopasowań dla twarzy azjatyckich
  • 5,5% wskaźnik fałszywych dopasowań dla twarzy czarnych

Dla perspektywy: system jest 100 razy bardziej skłonny do błędnej identyfikacji osoby azjatyckiej niż białej. Czarne kobiety są prawie 250 razy bardziej narażone na błędną identyfikację niż biali mężczyźni. To nie są błędy zaokrąglenia. To systemowe usterki wbudowane w sam algorytm, który podobno korzysta z technologii z 2020 roku, zastępowanej właśnie przez Home Office.

Walka o Sprawiedliwość

Choudhury nie zamierzał milczeć. Wystąpił w programie Good Morning Britain stacji ITV, by publicznie podzielić się swoją historią, opisując wyniki systemu rozpoznawania twarzy jako przepełnione "okropnymi błędami". Dochodzi teraz swoich praw na drodze sądowej, ubiegając się o odszkodowanie zarówno od policji Thames Valley, jak i Hampshire Constabulary, a reprezentuje go specjalistyczny radca prawny Iain Gould.

Nie jest też odosobniony w swoim sprzeciwie. Komisja ds. Równości i Praw Człowieka wyraziła zgodę na wsparcie powiązanych spraw sądowych, a policja Essex osobno zawiesiła wdrożenie systemu rozpoznawania twarzy w marcu 2026 roku, po tym jak badanie Uniwersytetu Cambridge wykazało rasowe uprzedzenia w ich systemie.

Szerszy Kontekst

Ta sprawa uwydatnia fundamentalne napięcie we współczesnym egzekwowaniu prawa. Technologia rozpoznawania twarzy obiecuje wydajność, ale gdy się myli, robi to w sposób nieproporcjonalnie dotykający osoby kolorowe. Niewinny człowiek stracił 10 godzin życia, siedząc w policyjnej celi, ponieważ algorytm uznał, że jego twarz jest wystarczająco podobna. To nie jest drobna niedogodność. To poważna porażka systemu, któremu społeczeństwo jest coraz częściej proszone o zaufanie.

Dopóki technologia nie będzie w stanie wykazać rzeczywistej dokładności we wszystkich grupach demograficznych, sprawy takie jak ta Choudhury'ego będą się powtarzać. I szczerze mówiąc, "komputer tak powiedział" nigdy nie powinno być wystarczającym powodem, by zakuć kogoś w kajdanki.

Przeczytaj oryginalny artykuł na stronie źródłowej.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.