Facebook und sein Algorithmus lagen diesmal eindeutig daneben.
+
Facebook und sein Algorithmus lagen diesmal eindeutig daneben.

Empfehlungspanne

Facebook entschuldigt sich: Algorithmus verwechselt Schwarze mit Affen

  • VonMirko Schmid
    schließen

Nach einem Film über Schwarze Menschen empfiehlt Facebook, sich ein Video über Primaten anzusehen. Das Unternehmen spricht von einem „inakzeptablen Fehler“.

Menlo Park, Kalifornien – Dass sich Facebook öffentlich für einen Fehler entschuldigt, kommt nicht allzu häufig vor. Zumeist ist schon eine aufgeflogene ausgewachsene Datenschutz-Affäre wie die Causa „Cambridge Analytica“ notwendig, damit aus dem Hauptquartier in Menlo Park eine Bitte um Nachsicht an die Öffentlichkeit dringt. Doch was nun passiert ist, zwang selbst Facebook, umgehend und kleinlaut zu reagieren.

Denn der häufig als exzellent bezeichnete Facebook-Algorithmus schlug Nutzenden, die ein Video einer britischen Boulevardzeitung mit Schwarzen Männern angesehen hatten, vor, sich „mehr Videos über Primaten“ anzusehen. Facebook kündigte daraufhin an, die auf künstlicher Intelligenz basierende Funktion zu untersuchen und vorerst zu deaktivieren.

Facebook entschuldigt sich für die Empfehlung

Am Freitag (2. September 2021) entschuldigte sich Facebook außerdem für einen „inakzeptablen Fehler“ und beteuerte, die Empfehlungsfunktion zu überprüfen, um „eine Wiederholung zu verhindern“. Das der verkündeten Einsicht zugrunde liegende Video vom 27. Juni 2020 stammte von The Daily Mail und zeigte ausgerechnet Clips von Schwarzen Männern bei Auseinandersetzungen mit weißen Zivilisten und Polizisten. Eine Verbindung zu Affen oder Primaten war nicht gegeben.

Darci Groves, eine ehemalige Content-Design-Managerin bei Facebook, berichtete, dass ihr eine Freundin einen Screenshot der Aufforderung, sich „mehr über Affen“ anzuschauen geschickt habe. Anschließend veröffentlichte sie den Vorfall in einem Produkt-Feedback-Forum für aktuelle und ehemalige Facebook-Mitarbeiter:innen. Als Reaktion darauf bezeichnete ein Produktmanager von Facebook Watch, dem Videodienst des Unternehmens, den Totalausfall des Algorithmus als „inakzeptabel“ und beteuerte, dass das nun nach der Ursache suche.

Groves selbst nannte die Aufforderung, sich „mehr über Primaten“ anzuschauen „schrecklich und ungeheuerlich“. Dani Lever, eine Facebook-Sprecherin, sagte daraufhin in einer Erklärung: „Wie gesagt, wir haben zwar Verbesserungen an unserer KI vorgenommen, wissen aber, dass sie nicht perfekt ist und wir weitere Fortschritte machen müssen. Wir entschuldigen uns bei jedem, der diese beleidigenden Empfehlungen gesehen hat.“

Facebook stand schon häufiger wegen Rassismus in der Kritik

Google, Amazon und andere Technologieunternehmen werden seit Jahren auf Vorurteile in ihren Systemen für künstliche Intelligenz untersucht, insbesondere in Bezug auf Fragen des Rassismus. Studien haben gezeigt, dass die Gesichtserkennungstechnologie gegenüber Nicht-Weißen voreingenommen ist und Schwierigkeiten hat, sie zu identifizieren. Dies soll sogar dazu geführt haben, dass Schwarze aufgrund von Computerfehlern diskriminiert oder festgenommen wurden. Außerdem wurde Facebook immer wieder vorgeworfen, die hetzerischen Posts* des ehemaligen US-Präsidenten Donald Trump* zu lange toleriert zu haben.

Unternehmen Facebook Inc.
SitzMenlo Park, Kalifornien, USA
GründungFebruar 2004, Cambridge, Massachusetts, USA
CEOMark Zuckerberg

Facebook verfügt über eines der weltweit größten Verzeichnisse für von Benutzern hochgeladene Bilder und trainiert seinen Algorithmus seit einiger Zeit auf Gesichts- und Objekterkennung. Das Unternehmen, das Inhalte basierend auf Surf- und Sehgewohnheiten der Benutzer:innen zuschneidet, fragt seine Nutzer:innen von Zeit zu Zeit, ob sie Beiträge in verwandten Kategorien sehen möchten. Unklar ist im aktuellen Beispiel, ob Nachrichten zum Thema „Primaten“ wirklich weit verbreitet sind. (Mirko Schmid)*fr.de ist ein Angebot von IPPEN.MEDIA.

Auch interessant

Mehr zum Thema

Kommentare