Facebook Nachrichten, dass Saga erinnert uns Menschen sind voreingenommen durch design
Die Offenbarung, dass einige der social-Media-Website journalistischen Entscheidungen von Menschen, nicht Algorithmen erfolgen hat ein faszinierendes Licht auf die sich rasch verändernden Nachrichten Landschaft glänzte.
Am Donnerstag, Facebook endlich zugegeben was viele jahrelang vermutet hatte: seine "trending Topics"-Funktion, eine kleine Box, die auf der Oberseite lebt direkt von ihrer Website wird herausgegeben von Journalisten, Vertrauen so sehr auf ihre Nachrichten Sinn und gute altmodische redaktionellen Richtlinien wie auf Facebook eigenen technologischen Lösungen für das Problem der "trendige" Geschichten zu finden.
Die Journalisten beteiligt kuratieren Facebooks verlaufenden Themen Feature haben angeblich verbrachte einen Großteil ihrer zwei Jahre auf dem Arbeitsmarkt gezwungen in die Stille durch strikte Vertraulichkeitsvereinbarungen verhindern, dass sie auch enthüllt, dass sie bei der Firma gearbeitet. Aber ein Bericht von US-Technologie-Website Gizmodo in diesem Monat begann einen Prozess, der schließlich das social Network zugeben, dass Facebook mehr als eine bloße Plattform sehen würde.
Der Wendepunkt war ein Follow-up-Bericht, wonach die Kuratoren "routinemäßig unterdrückte konservative News". Der Bericht, unter Berufung auf eine anonyme Ex-Mitarbeiter sagte, dass das Unternehmen nicht verlaufenden Geschichten decken, die gemeldet worden waren durch rechtsextreme Websites wie Breitbart oder Newsmax, bis eine Mainstream-Publikation, wie die New York Times oder BBC, hatten sie abgeholt.
Facebook verweigert die Geschichte, doch damit nicht genug, Furore verschlingt die höchsten Ebenen des Unternehmens zu stoppen. Im US-Senat Commerce Committee Chair, John Thune, ein Kongress Untersuchung in das Unternehmen gefordert, und Facebook Chef Mark Zuckerberg kündigte an, "führende konservative" laden zu Anschuldigungen politischer Voreingenommenheit mit ihm reden.
Am Donnerstag zufolge Dokumenten, die von the Guardian Facebooks Denial-of-wahrscheinlich gerechtfertigt war. In einer Reihe von Dokumenten der redaktionellen Standards für die angesagte Themen Abschnitt auslegen diktierte das Unternehmen seine Journalisten Umgang mit Nachrichten berichten sollte. Es in der Tat nahe, dass eine Geschichte als wichtig markiert werden sollte nicht, wenn es nur eine Steckdose wie Newsmax, aber nicht aus politischen Gründen kam. Stattdessen drückte das Unternehmen eine Vorliebe für Geschichten aus einer Liste von 10 großen, etablierten politischen Nachrichten-Websites, einschließlich Fox News, der Guardian und die BBC.
"Ich glaube, dass was passiert mit diesen Kuratoren ist, dass sie wollten peinliche Fehler zu vermeiden", sagte Jay Rosen, Professor für Journalistik an der New York University. "Vor allem, weil sie keine wirkliche Macht in der Firma hatten, hatten sie keine Autorität. Und so wollten sie nur zuverlässige Nachrichten auswählen.
"Der einfachste Weg dazu – keine besonders intelligente Art und Weise – aber der einfachste Weg ist, nur Dinge auszuwählen, die Hauptnachrichten Organisationen veröffentlicht werden. In einer Umgebung wie, kann eine Geschichte, die nur auf rechtsextreme Blogs und konservative Nachrichtenseiten im Umlauf ist in der Tat aus Gründen der Bürokratie mehr als Bias ausgelassen werden."
Die Einführung von menschlicher Hand bei der Auswahl der Trendthemen stammt aus dem Sommer 2014, wenn zwei verschiedene Geschichten social-Media im Sturm erobert wurden. Auf Facebook Eiskübel Herausforderung nahm über Newsfeeds, beweisen die perfekte Art des Inhalts zu viralen Erfolg zu fahren sondern auf Twitter, eine Plattform kaum vermittelt, Black lebt Angelegenheit Proteste die Reaktion zu den Dreharbeiten eines Teenagers Michael Brown in Ferguson dominiert wurden.
Einige befürchten, dass algorithmisch kuratierte Newsfeeds nie vollständig wichtige Breaking News Veranstaltungen erfassen konnte, und es scheint Facebook war überzeugt: die Kuration-Team wurde eingerichtet und Richtlinien eingeführt, die erlaubt es, den Algorithmus zu überschreiben, wenn genügend wichtigen Publikationen eine Geschichte berichteten.
Kurz nachdem der Guardian Facebook Richtlinien veröffentlichte, die Unternehmen selbst veröffentlicht eine neuere Version davon, und Justin Osofsky, Vizepräsident von global Operations, sagte: "die Richtlinien zeigen, dass wir eine Reihe von Prüfungen und Salden Oberfläche hilft die wichtigsten populären Geschichten, unabhängig davon, wo sie auf dem ideologischen Spektrum fallen."
Während die Veröffentlichung von redaktionellen Richtlinien des Unternehmens dienen kann, das Feuer wird entfacht in der konservativen Blogosphäre zu dämpfen, auf lange Sicht könnte es Facebook bis zu tieferen Kritik öffnen. Rosen, sagte: "Facebook ist ein Unternehmen eine redaktionelle Rolle, redaktionelle Leistung, aber ohne redaktionelle Kultur oder Führung. Sie können nicht der Chefredakteur von Facebook anrufen und Fragen sie, was vor sich geht, denn es keinen Chefredakteur gibt. Es gibt keine Ombudsmann."
Und während Facebook über wie es seine Trendthemen schnürt geöffnet hat, das Unternehmen bleibt wortkarg über seine wichtigsten Newsfeed, die Funktion, die algorithmisch eine Auswahl der Beiträge präsentieren für jeden einzelnen Benutzer zieht zusammen. Diese Algorithmen sind, jedoch immer noch von Menschen entworfen.
Der Mangel an jede redaktionelle Bürgerbeauftragten Rosen argumentiert, bedeutet, dass "sie haben keine Möglichkeit, um Fragen über die Prioritäten, die in Newsfeeds gehen." Sie veröffentlichen gelegentlich Informationen über sie: gelegentlich setzen sie kleine Aktualisierungen auf dem Blog... Aber es keine systematische Weg für sie gibt zu zeigen, was ihre redaktionelle Urteil, weil sie nicht an dem Punkt, wo sie wirklich sich sagen können: "Wir machen redaktionellen Entscheidungen." "