KI-Fehler: Schwangere Frau als Autodiebin verhaftet
In den USA ist erstmals eine Frau wegen eines Fehlers einer künstlichen Intelligenz zu Gesichtserkennung unschuldig verhaftet worden, obwohl die Afroamerikanerin offensichtlich hochschwanger ist. Die Fehleranfälligkeit der Software bei Schwarzen ist ein seit Langem bekanntes Problem.
Wieder einmal zeigt sich, dass künstliche Intelligenz nicht unfehlbar ist: In den USA ist eine hochschwangere Frau wegen eines Fehlers einer Gesichtserkennungssoftware fälschlicherweise des Autodiebstals bezichtigt und verhaftet worden. Es ist offiziell der erste Fall, dass eine Frau in den Vereinigten Staaten wegen eines KI-Fehlers festgenommen wurde. Nach der Einstellung des Verfahrens klagt die vermeintliche Räuberin Porcha Woodruff (32) jetzt die Stadt Detroit auf Schmerzensgeld. Die Höhe der eingeklagten Summe ist nicht bekannt.
Festgenommen, währen Woodruff zwei Kinder für die Schule fertig machte
Die Polizei in Detroit ermittelte damals zu einem bewaffneten Autoraub. Dafür speiste sie Bilder einer Überwachungskamera in eine Gesichtserkennungs-Software ein, die Woodruff als mögliche Täterin klassifizierte. Dem Opfer des Autoraubs wurde dann das Bild von Woodruff zusammen mit Bildern anderer Frauen vorgelegt. Die Schwangere wurde als die Tatbeteiligte identifiziert. Daraufhin nahm die Polizei am Montag des 16. Februar mit sechs Beamten die geglaubte Täterin fest, während diese ihre Kinder auf die Schule vorbereitete. „Sie war angesichts ihrer sichtbaren Schwangerschaft perplex und, es würde sich um einen Scherz handeln“, ist in der Anklageschrift zu lesen. Im Lauf des Tages wurde Woodruff gegen Kaution freigelassen.
KI-Problem bei Schwarzen ist bekannt
Experten haben herausgefunden, dass bei der KI immer wieder zu Verwechslungen kommt. Studien zeigen zudem, dass Erkennungs- und Fahndungssoftware besonders bei Schwarzen häufig Fehler unterlaufen oder diese sogar bevorzugt als Täter profiliert. Deswegen argumentier Woodruff auch in ihrer Klage, dass die Polizei ihre Ermittlungen nicht auf eine Software stützen hätte dürfen, die besonders bei der Identifizierung von Afroamerikanern fehleranfällig ist.
Kommentare