KI-Fehler: Schwangere Frau als Autodiebin verhaftet
In den USA ist erstmals eine Frau wegen eines Fehlers einer künstlichen Intelligenz zu Gesichtserkennung unschuldig verhaftet worden, obwohl die Afroamerikanerin offensichtlich hochschwanger ist. Die Fehleranfälligkeit der Software bei Schwarzen ist ein seit Langem bekanntes Problem.
Wieder einmal zeigt sich, dass künstliche Intelligenz nicht unfehlbar ist: In den USA ist eine hochschwangere Frau wegen eines Fehlers einer Gesichtserkennungssoftware fälschlicherweise des Autodiebstals bezichtigt und verhaftet worden. Es ist offiziell der erste Fall, dass eine Frau in den Vereinigten Staaten wegen eines KI-Fehlers festgenommen wurde. Nach der Einstellung des Verfahrens klagt die vermeintliche Räuberin Porcha Woodruff (32) jetzt die Stadt Detroit auf Schmerzensgeld. Die Höhe der eingeklagten Summe ist nicht bekannt.
Festgenommen, währen Woodruff zwei Kinder für die Schule fertig machte
Die Polizei in Detroit ermittelte damals zu einem bewaffneten Autoraub. Dafür speiste sie Bilder einer Überwachungskamera in eine Gesichtserkennungs-Software ein, die Woodruff als mögliche Täterin klassifizierte. Dem Opfer des Autoraubs wurde dann das Bild von Woodruff zusammen mit Bildern anderer Frauen vorgelegt. Die Schwangere wurde als die Tatbeteiligte identifiziert. Daraufhin nahm die Polizei am Montag des 16. Februar mit sechs Beamten die geglaubte Täterin fest, während diese ihre Kinder auf die Schule vorbereitete. „Sie war angesichts ihrer sichtbaren Schwangerschaft perplex und, es würde sich um einen Scherz handeln“, ist in der Anklageschrift zu lesen. Im Lauf des Tages wurde Woodruff gegen Kaution freigelassen.
KI-Problem bei Schwarzen ist bekannt
Experten haben herausgefunden, dass bei der KI immer wieder zu Verwechslungen kommt. Studien zeigen zudem, dass Erkennungs- und Fahndungssoftware besonders bei Schwarzen häufig Fehler unterlaufen oder diese sogar bevorzugt als Täter profiliert. Deswegen argumentier Woodruff auch in ihrer Klage, dass die Polizei ihre Ermittlungen nicht auf eine Software stützen hätte dürfen, die besonders bei der Identifizierung von Afroamerikanern fehleranfällig ist.
Kommentare
Ich kenn’ sie auch nicht auseinander.
Chinesen auch nicht …
KI sehr Mensch ähnlich….macht auch Fehler….
Böse Zungen behaupten, also nicht ich. Dass sogar die KI die nicht will.
Sachen gibt’s das glaubt man nicht.
Ob sie tatsächlich ungerechtfertigt festgenommen wurde, steht noch lange nicht fest. – Denn das Opfer des Überfalls hat sie auf dem Foto identifiziert. – Oder war das Opfer auch eine KI ?
Der KI hat doch bestimmt ein weißer Programmiert. Typischer Ami Rassismus halt.
Die Amis werden die Sklavenzeit wohl so schnell nicht überwinden. Black Live Matters.
Stoppt den Rassismus gegen People of Color.
Die KI hat schon des öfteren deine Freunde ausgegrenzt. Also kommt wohl nicht von ungefähr.
Satire Ende ⬅️
Das die Ami Schweine sind weiß man ja bringen weltweit Menschen um haben die totes Strafe produzieren mehr Waffen als der Rest der weil ein satansvolk
Ihre Sprach-KI muss auch mal zum TÜV.
Verklagen was das Zeug hält.
Wird sich doch ein guter Anwalt finden lassen, der ein paar Millionen raushaut.
Um draufzukommen, dass die künstliche Unintelligenz oftmals Blödsinn baut, braucht man kein “Experte” zu sein. Wenn sich eine Gesellschaft, ein Staat auf sowas verlässt, gibts natürlich auch keine Opfer von Irrtümern, weil die KI ja immer richtig liegt. Tuttle (im Film Brazil) wurde wegen eines Tippfehlers einfach ausgelöscht.