Facebook entschuldigt sich: Algorithmus verwechselt Schwarze mit Affen
Frankfurter Rundschau
Nach einem Film über Schwarze Menschen empfiehlt Facebook, sich ein Video über Primaten anzusehen. Das Unternehmen spricht von einem „inakzeptablen Fehler“.
Menlo Park, Kalifornien – Dass sich Facebook öffentlich für einen Fehler entschuldigt, kommt nicht allzu häufig vor. Zumeist ist schon eine aufgeflogene ausgewachsene Datenschutz-Affäre wie die Causa „Cambridge Analytica“ notwendig, damit aus dem Hauptquartier in Menlo Park eine Bitte um Nachsicht an die Öffentlichkeit dringt. Doch was nun passiert ist, zwang selbst Facebook, umgehend und kleinlaut zu reagieren. Denn der häufig als exzellent bezeichnete Facebook-Algorithmus schlug Nutzenden, die ein Video einer britischen Boulevardzeitung mit Schwarzen Männern angesehen hatten, vor, sich „mehr Videos über Primaten“ anzusehen. Facebook kündigte daraufhin an, die auf künstlicher Intelligenz basierende Funktion zu untersuchen und vorerst zu deaktivieren. Am Freitag (2. September 2021) entschuldigte sich Facebook außerdem für einen „inakzeptablen Fehler“ und beteuerte, die Empfehlungsfunktion zu überprüfen, um „eine Wiederholung zu verhindern“. Das der verkündeten Einsicht zugrunde liegende Video vom 27. Juni 2020 stammte von The Daily Mail und zeigte ausgerechnet Clips von Schwarzen Männern bei Auseinandersetzungen mit weißen Zivilisten und Polizisten. Eine Verbindung zu Affen oder Primaten war nicht gegeben.More Related News