KI-Gesichtserkennung verwechselt Software-Ingenieur mit Einbrecher 160 Kilometer entfernt
Alvi Choudhury wurde durch fehlerhafte KI-Gesichtserkennung unrechtmäßig verhaftet. Der Fall zeigt alarmierende Diskrepanzen in der Erkennungsgenauigkeit nach Hautfarbe.
Wenn der Algorithmus spektakulär versagt
Wer noch einen Beweis brauchte, dass künstliche Intelligenz noch lange nicht bereit ist, den Detektiv zu spielen, der sollte Alvi Choudhury kennenlernen. Der 26-jährige Software-Ingenieur arbeitete im Januar von zu Hause bei seinen Eltern in Southampton, als die Polizei an seiner Tür erschien, ihn festnahm und ihn fast 10 Stunden in Gewahrsam hielt. Sein angebliches Vergehen? Ein Einbruch in das Milton Keynes Buddhist Vihara, rund 160 Kilometer entfernt, bei dem im Dezember 2025 Schmuck und 3.000 Pfund gestohlen worden waren.
Das Problem? Choudhury hatte damit nichts zu tun. Absolut gar nichts. Die auf dem Überwachungsvideo erfasste Person sah ihm dem Vernehmen nach kaum ähnlich: rund 10 Jahre jünger, hellere Haut, eine größere Nase, kein Gesichtshaar und völlig andere Gesichtszüge. Man könnte sagen, die Ähnlichkeit war bestenfalls weit hergeholt.
Wie konnte das passieren?
Der Auslöser für die unrechtmäßige Festnahme war das automatisierte Gesichtserkennungssystem der Thames Valley Police, das vom deutschen Unternehmen Cognitec entwickelt wurde. Die Software durchsucht monatlich rund 25.000 Anfragen und gleicht Bilder mit einer Datenbank von etwa 19 Millionen Polizeifotos ab. Sie identifizierte Choudhury als Treffer für den Einbruchverdächtigen.
Besonders bitter ist folgender Detail: Choudburys Foto befand sich überhaupt nur deshalb im System, weil er zuvor bereits unrechtmäßig mit der Polizei in Berührung gekommen war. Im Jahr 2021 wurde er als Student in Portsmouth angegriffen und landete dann irgendwie selbst in Polizeigewahrsam. Er wurde ohne weitere Maßnahmen entlassen, doch sein Foto blieb in der Datenbank. Ein System, das auf fehlerhaften Daten aufgebaut ist, liefert fehlerhafte Ergebnisse. Da steckt eine gewisse düstere Logik drin.
Die Thames Valley Police bestand darauf, dass die Festnahme rechtmäßig gewesen sei, mit dem Argument, die Gesichtserkennungstechnologie habe "den Hinweis geliefert, aber nicht die Festnahme bestimmt" und die Beamten hätten vor dem Vorgehen eine eigene Sichtprüfung vorgenommen. Choudhury findet diese Erklärung verständlicherweise wenig überzeugend.
Zahlen, die alle aufhorchen lassen sollten
Dies ist kein einzelner unglücklicher Irrtum. Eine vom Innenministerium in Auftrag gegebene Studie vom Dezember 2025 enthüllte beunruhigende Statistiken zur Genauigkeit der Technologie bei verschiedenen Bevölkerungsgruppen:
- 0,04 % Falscherkennungsrate bei weißen Gesichtern
- 4 % Falscherkennungsrate bei asiatischen Gesichtern
- 5,5 % Falscherkennungsrate bei schwarzen Gesichtern
Um das einzuordnen: Das System identifiziert eine asiatische Person 100-mal häufiger fälschlicherweise als eine weiße Person. Schwarze Frauen werden fast 250-mal häufiger falsch erkannt als weiße Männer. Das sind keine Rundungsfehler. Das sind systemische Fehler, die tief im Algorithmus selbst verankert sind, der Berichten zufolge auf Technologie aus dem Jahr 2020 basiert, die das Innenministerium inzwischen zu ersetzen versucht.
Die Gegenwehr
Choudhury hat das nicht stillschweigend hingenommen. Er erschien in der ITV-Sendung Good Morning Britain, um seine Geschichte öffentlich zu erzählen, und beschrieb die Ausgabe des Gesichtserkennungssystems als voller "haarsträubender Fehler". Er geht nun rechtlich vor und fordert Schadensersatz sowohl von der Thames Valley Police als auch von der Hampshire Constabulary, vertreten durch den Spezialanwalt Iain Gould.
Er ist auch nicht allein mit seinem Widerstand. Die Equality and Human Rights Commission hat zugestimmt, verwandte Rechtsfälle zu unterstützen, und die Essex Police setzte im März 2026 separat ihren Live-Gesichtserkennungseinsatz aus, nachdem eine Studie der Universität Cambridge rassistische Verzerrungen in ihrem System festgestellt hatte.
Das größere Bild
Dieser Fall beleuchtet eine grundlegende Spannung in der modernen Polizeiarbeit. Gesichtserkennungstechnologie verspricht Effizienz, doch wenn sie Fehler macht, trifft sie damit überproportional häufig Menschen mit Migrationshintergrund. Ein unschuldiger Mann verlor 10 Stunden seines Lebens in einer Polizeizelle, weil ein Algorithmus entschied, sein Gesicht sei nah genug dran. Das ist keine kleine Unannehmlichkeit. Das ist ein schwerwiegendes Versagen eines Systems, dem die Gesellschaft zunehmend vertrauen soll.
Solange die Technologie keine wirklich gleichmäßige Genauigkeit über alle Bevölkerungsgruppen hinweg nachweisen kann, werden Fälle wie der von Choudhury weiterhin vorkommen. Und ehrlich gesagt sollte "der Computer hat es so gesagt" niemals ausreichen, um jemanden in Handschellen zu legen.
Den Originalartikel lesen Sie bei der Quelle.
