Was jeder über Facebooks "Gruselig" Studie falsch ist
Wenn Sie irgendwo in der Nähe dieser große, große Internet von uns in den letzten Tagen gewesen sind, haben Sie wahrscheinlich über Facebooks empörend Vertrauensbruch gehört. Außer mindestens diesmal Facebook möglicherweise nicht vollständig im Unrecht.
Die Studie
Im Jahr 2012 beschlossen Facebook, verbringen Sie eine Woche machen eine Reihe von experimentellen Benutzertests, etwas Unternehmen tun ständig und was Google einmal ein Gesamtprodukt Arm gewidmet hatte.
In der Studie Forscher nahmen etwa 690.000 englischsprachige Benutzer Zeitpläne (oder etwa 0,05 % der Summe aller Facebook-Nutzer), in Hälfte gespalten und negativer Inhalte als üblich aus eine mehr positive Inhalte als üblich vom anderen entfernt. Die ergab die folgenden Ergebnisse:
Also für die Gruppe, die mehr positive Status-Updates (Negativität reduziert) sah, gab es eine 0,07 % Steigerung in die eigene positive Zustände. Für die Gruppe, die mehr negative Status-Updates (Positivität reduziert), sah gab es eine 0,01 % Steigerung in die eigene negative Zustände. Das klingt klein, sicher, aber in Facebook-Welt, die noch zu Hunderttausenden von tatsächlichen Nutzern übersetzen könnte. Und das hat so viele Menschen in die Arme.
Die Beschwerden
"Facebook absichtlich Tausende und Abertausende von Menschen traurig," sagte Slates Katy Waldman. Während Adrienne LaFrance im The Atlantic beschrieben von Facebook als "the Puppet Masters, die mit den Daten-Spuren spielen lassen wir online" und "neue Ebene gruselig."
Denn während Facebooks Daten Use Policy, die alle von uns überprüft und keiner von uns lesen, einen Abschnitt detailliert wie Facebook enthält "nutzen Sie die Informationen erhalten wir von Ihnen... für interne Operationen, einschließlich Problembehandlung, Datenanalyse, Tests, Forschung und Service Improvement," ist es allgemein bekannt, dass ohne eine tatsächlich liest das Zeug. Was bedeutet, dass sogar obwohl Facebook technisch durch die Einwilligung spielt herrscht, ist es ein ziemlich schattigen Weg, um darüber zu gehen.
Es war nicht nur, dass Facebook aber irreführend war. Facebook kann aktiv unsere Emotionen manipuliert haben. Als James Grimmelmann schrieb ein Professor of Law an der University of Maryland:
Die Teilnehmer der Studie geschädigt...
Die ahnungslosen Teilnehmer in der Facebook-Studie wurde für eine Woche (scheinbar von ihren Freunden) gesagt, entweder, dass die Welt ein Ort dunkel und trostlos war, oder dass es ein Saccharin Paradies war. Das ist psychologische Manipulation, auch wenn sie automatisch durchgeführt wird.
All das klingt ziemlich schrecklich. Aber glücklicherweise ist das nicht ganz das was passiert ist.
Warum sind sie fehl am Platz
Ja, Facebooks "Informed Consent" ist ein ziemlich schwacher Versuch zu lassen Benutzer wissen, dass ihre Newsfeeds Freiwild für Forschungszwecke sind, aber es eine Regel, die Facebook nicht auch technisch in erster Linie ist durch zu spielen. Da das Unternehmen Bundesmittel für die Forschung erhalten ist nicht, es ist Wabbel, Normen, die eigentlich nicht gelten – aber, dass es unabhängig davon erfüllt.
Und Unternehmen spielen mit unseren Gefühlen wie dieser aller Zeiten. Das macht es nicht unbedingt ok, offensichtlich. Aber es legt nahe, dass vielleicht unsere Indignance ein wenig fehl am Platze ist. Bist du wirklich so empört über eine etwas andere Erfahrung als andere ohne Ihre ausdrückliche Einwilligung gegeben, als haben Sie ein großes Problem mit der gesamten marketing-Branche. Das gilt – viele Menschen tun! Aber in den großen Plan der Dinge, in diesem Fall Facebook wirklich nicht allzu viel (uns oder auf andere Weise) andere als eine leicht fehlerhafte Experiment laufen.
Als Dr. Karen Dill-Shackleford, Program Director Media Psychology Fielding Universität erklärte Gizmodo:
Menschen in der Regel lesen nicht Juristendeutsch. Sie nehmen ihre Chancen und verwalten ihre Investitionen von Zeit. Zur gleichen Zeit würde ich die Studie "minimales Risiko" nennen, aus Sicht IRB (ich bin auf der IRB und sind seit Jahren an verschiedenen Hochschulen).
Es ist erwähnenswert, dass "minimales Risiko" die meist unverfänglichen Art der Studie, die Sie haben können. Es besagt im Wesentlichen, dass im Verlauf der Studie, Teilnehmer keine Gefahr mehr entstehen, als sie in ihrem täglichen Leben würden.
Und die Beschwerden, dass Facebook Nutzer Emotionen "manipuliert" ist eine ziemlich verzogen Beschreibung was das Experiment tatsächlich beinhaltete. Während Manipulation aktiv versucht, ein bestimmtes Ergebnis zu produzieren bedeutet, war nicht Facebook eigentlich nichts Volkspartei News-Feeds hinzufügen. Vielmehr war es einfach eine Portion positive oder negative Beiträge entfernen.
Beiträge mit besonders hetzerische suchen nicht Facebook. Es auswählen nicht die perfekte Kombination von emotionaler Kraftstoff. Es machte einfach Sie sehen weniger Beiträge einer bestimmten Art, als Sie sonst haben würde. Jede Veröffentlichung, die blieb noch hätte es ob Sie an dem Versuch teilgenommen oder nicht haben. Wenn das immer noch für Sie gefährlich klingt, sollten dann Sie Ihre Facebook eine lange, vor langer Zeit gelöscht.
Was sind wir wirklich zu tun
Die Tatsache der Angelegenheit ist, dass Facebook eine freie, gemeinnützige, freiwillige Service. Wir waren uns einig, seine allgemeinen Geschäftsbedingungen wenn wir unterschrieben, unabhängig davon, ob wir, es lohnt sich unsere Zeit beschlossen, sie zu lesen. Und es ist nicht wie Facebook wirklich nichts Ungewöhnliches hier tun, ist anders als ihre private Forschung öffentlich zugänglich zu machen.
Google, Youtube, Twitter, eBay – sie laufen ständig kleine Experimente, wie diese Experimente auswirken (d. h. manipulieren) uns anders verhalten. Ohne diese Art von Forschung wäre unsere User Experience auf diesen Seiten wahrscheinlich eine Hölle von viel weniger angenehm. Sie laufen diese Tests, so dass wir bleiben und machen sie Geld, nicht wollen (vermutlich) für die reine Freude, Gott zu spielen.
Es passiert einfach so, dass in diesem Fall Facebooks Erforschung uns mehr engagiert macht auch einige interessanten Implikationen für die Wissenschaft im Allgemeinen hat. Und als Tal Yarkoni, wissenschaftliche Mitarbeiterin in der Abteilung für Psychologie an der University of Texas in Austin, so eloquent erklärt:
Facebook muss nicht unbedingt teilen ihrer Daten oder Ergebnisse mit dem Rest der Welt wenn es nicht will; Es könnte bequem Horten all sein Wissen und für die eigenen Zwecke zu verwenden, und niemand sonst jemals dafür klüger sein.
Die Tatsache, dass Facebook bereit, damit ihre Daten-Science-Team verbringen mindestens einige seiner Zeit veröffentlichen wissenschaftliche Grundlagenforschung, die dem Facebook unvergleichliche schöpft ist etwas zu loben, nicht kritisiert.
Ich versuche nicht, zu behaupten, dass Facebook ein Opfer hier ist oder wir nicht Ursache, in der Nähe von täglich zu kritisieren haben. Dies ist jedoch nicht eine jener Zeiten. Unsere Empörung ist fehl am Platze und möglicherweise sogar schädlich. Wir möchten , dass Facebook weiterhin seine Daten für der Öffentlichkeit verfügbar machen sollte – Gott weiß, es hat mehr Ressourcen als die meisten.
Und wenn das Endergebnis dieser Studie ist, dass wir alle anfangen, sehen ein paar weniger Angsty Beiträge in unseren News-Feed, und Tschüss.
Kunst von Jim Cooke