Wer einen Clip über einen rassistischen Vorfall in den USA sah, bekam mehr „Videos über Primaten“ vorgeschlagen. Facebook entschuldigt sich. Eine Sprecherin des Unternehmens bestätigte das Problem, das bei einem Video der britischen Zeitung „Daily Mail“ aufgetreten war. Facebook-Nutzer, die sich das Video mit dem Titel „Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen“ angesehen hatten, wurden anschließend gefragt, ob sie „weiterhin Videos über Primaten sehen möchten“, berichtete die „New York Times“.

Die Sprecherin sprach von einem „eindeutig inakzeptablen Fehler“. Die verantwortliche Software sei sofort vom Netz genommen worden. „Wir entschuldigen uns bei jedem, der diese beleidigenden Empfehlungen gesehen hat“.

Künstliche Intelligenz wird auch zur Moderation eingesetzt

Facebook setzt auf verschiedene Formen von künstlicher Intelligenz, um die den Nutzern angezeigten Inhalte zu personalisieren. Dabei kommt auch Gesichtserkennungssoftware zum Einsatz. Bürgerrechtlern weisen jedoch schon länger auf Probleme mit der Genauigkeit hin. Künstliche Intelligenz kommt bei Facebook auch bei der Moderation von Inhalten zum Einsatz, etwa um problematische Nachrichten und Bilder zu erkennen und zu blockieren. (Agenturen/red)