Spielen Sie schön! Wie im Internet versucht, Fehlverhalten zu entwerfen
Online-Missbrauch kann grausam – aber für einige Tech-Unternehmen ist es eine existenzielle Bedrohung. Können Riesen wie Facebook verhaltensbezogene Psychologie und überzeugendes Design um die Trolle zu zähmen?
Es war ein Buch über den neugierigen Rückgang der Mordrate, die Aja Bogdanoff ihre Idee gab.
Ihren Job zurück dann stockte tatsächliche Blutvergießen, aber es ließ sie kein Fremder auf die dunkle Seite der menschlichen Natur. Ein Software-Ingenieur, gebaut und moderierte Online-Kommentar-Plattformen, tagelang Bogdanoff ihr waten durch Beleidigungen und ihre Freizeit Brandbekämpfung dringender Vorfälle. Sie konnte sehen, Plattformen, überwältigt von der schieren Menge der antisoziale Benutzer, aber konnte nicht herausfinden, wie man einen Sprung voraus.
Dann las sie Steven Pinker besser Engel von unserer Natur, die die Evolution der menschlichen Gewalt charts. "Das Buch sagt, Menschen glauben immer, dass ihre Handlungen gerechtfertigt sind. Egal was sie tun, sie denken, es gibt ein triftigen Grund,"erinnert sie sich, aus dem Büro von ihrem Start in Oregon. "Also, ich erkannte mussten wir dort und unterbrechen Sie diesen Prozess; machen Sie Menschen, die darüber nachdenken, das sind echte Menschen." Anstatt ständig zu fangen mit "schlechten" Plakate, könnten sie besseres Verhalten von Anfang an entwerfen?
Die Idee eines "schöner" net klingt ein bisschen twee, garantiert Liberalisten zu erzürnen, die die Schaffung von fad, Beige sicheren Räumen wo freie Meinungsäußerung geht sterben fürchten. Aber es eine Idee mit einigen großen Kanonen dahinter ist, und wofür sie eintreten nicht Zensur, sondern intelligenter Entwurf. Diesen Monat auf dem Sundance Filmfestival, genannt Netz-Pionier Tim Berners-Lee auf Plattformen zu bauen "Systeme, die neigen, konstruktive Kritik und Harmonie, im Gegensatz zu Negativität und Mobbing zu produzieren".
In Großbritannien plant Yvette Cooper, die einige düstere frauenfeindlichen Online-Missbrauch ertragen wenn sie bewarb, um Labour-Chef zu werden, einen "Reclaim the Net" Gipfel untersucht Möglichkeiten, eine freundlichere, zivilisiertere Baukultur. "Wenn sie im Gespräch mit Politikern, Menschen sollten in der Lage sein zu widersprechen und sagen, so stark,", sagt sie. "Aber wenn es bombardiert Menschen geht, die nicht im öffentlichen Leben mit aggressiver Missbrauch sind, wird es ein Problem, wenn es beginnt, um Menschen zum Schweigen zu bringen." Sie hören Mädchen im Teenageralter sagte: "Gut, ich werde aufhören zu sagen nichts über den Feminismus auf Facebook, weil es einfach so feindlich gesinnt ist." " Es geht nicht um Zensur freie Meinungsäußerung, aber schützen, sie argumentiert, für diejenigen die jetzt aus dem Gespräch gemobbt.
Für Idealisten wie Berners-Lee ist die Tatsache, dass das Netz eine anstrengende Zeit verbringen geworden ist ein Affront gegen seine Grundwerte. Technologie soll um die Welt einen besseren Ort, keine bitchier zu machen. Und für die großen Unternehmen Spieler – Twitter, Instagram, Online-Verlage und andere Unternehmen abhängig von uns verbringen immer mehr Zeit online – es ist eine echte kommerzielle Bedrohung. Einige Nutzer und weniger Anzeigenkunden genießen Sie hängen in einem Raum voller wütenden Menschen verderben für einen Kampf.
"Wenn Facebook keinen sicheren Ort und Menschen nicht das Gefühl, sie hätten ein Gespräch, das Zivil- und respektvoll ist, warum jemand wollen würde an dieser Stelle werben?", sagt Simon Milner, Facebook Direktor der Politik für Großbritannien, Nahost und Europa. "Diese beiden Dinge gehören zusammen. "Es ist ein wichtiger Bestandteil des Geschäftsmodells."
Wo kommt zivilen Kommentare, das Startup Bogdanoff mit Christa Mrgan gegründet.
Die Idee ist einfach (obwohl die Software so komplex, dass es dauerte ein Jahr ist, um zu bauen): bevor Sie einen Kommentar in einem Forum oder unter einen Artikel, müssen Benutzer zwei zufällig ausgewählte Kommentare von anderen für die Qualität der Argumente und Höflichkeit (definiert als eine Abwesenheit von persönlichen Angriffen oder Missbrauch) bewerten. Bewertungen sind knirschte, um sich ein Bild von was Nutzer einer bestimmten Website die eignet sich dann zum Kennzeichnen von potenziell anstößigen Materials duldet, zu bauen.
Entscheidend ist, Benutzer müssen dann bewerten Sie ihren eigenen Kommentar für Höflichkeit und können es umschreiben, wenn sie wollen (bei der Prüfung, haben etwa 5 %).
Es kann nicht davon abhalten, gehärtete Trolle aber, sagt Bogdanoff, der Prozess erinnert normale Benutzer, die sie nicht nur "ins Leere schreien" – andere Menschen sind, zu beurteilen. Es ruft das leichte Gefühl der sozialen Hemmung fühlen wir uns im realen Leben gefragt, vor einem Publikum zu sprechen. "Wenn jemand Sie ein Mikrofon übergeben und gab Ihnen ein paar Momente im Rampenlicht, könnte man denken:"Ist das, was ich wirklich sagen wollte?""
Es ist am Anfang – das System wird durch zwei Lokalzeitungen Oregan gesteuert wird. Aber Mrgan beharrt, daß es noch nicht zu steril, keimfreien Kommentare geführt. "Menschen noch Witze, machen wird ein bisschen Snarky immer sehr rechthaberisch,", sagt sie. "Die persönliche Angriffe, Beschimpfungen und Missbrauch gegangen, aber das gleiche Gefühl ist wirklich geblieben."
Fragen Menschen einander beurteilen kann eine überraschend starke Sache sein. Nehmen Sie die Uber-Taxi-app Rating System, die bittet Passagiere und Fahrer sich gegenseitig geben Sterne-Bewertungen – im Wesentlichen eine Möglichkeit schaffen, eine wechselseitige Beziehung zwischen zwei fremden, wo jeder einen Ruf zu verlieren hat. Das Unternehmen buchstabieren nicht die Folgen für Fahrgäste, die schlechte Bewertungen bekommen, weil ehrlich gesagt, es nicht muss; Passagiere gehen überraschend Anstrengungen unternommen, um ein gutes Rating zu halten, ohne wirklich zu verstehen, warum es darauf ankommt. Aber der einzige Weg, die Plattformen unterschwellig Sozialverhalten fördern nicht aufrufen ein Gefühl, beobachtet.
Vor ein paar Jahren bemerkt Facebook-Manager einen Ansturm von Beschwerden von Nutzern über Freunde veröffentlichen Fotos von ihnen, die sie nicht mochten. Die Bilder waren nicht explizit; Sie erinnerten nur Nutzer von etwas, das sie lieber vergessen würden, oder machte sie dumme aussehen. Diese Beschwerden wurden immer abgelehnt, weil keine Regeln gebrochen hatte, doch Freundschaften dadurch belastet wird wurden. "Wir haben versucht, zu sagen,"Warum nicht Sie nur Nachrichten der Person?", aber Leute wussten nicht Recht, was Sie sagen," sagt Milner, taktvoll hinzufügen, dass nicht jeder "soziale Kompetenz", solche kleinlichen Streitereien zu lösen.
Also, stellte Facebook Sozialberichterstattung, die funktioniert wie ein Lehrer sanft Hilfe für Kinder in einem Spielplatz Streit, Dinge untereinander zu lösen. Beschwerdeführer eine Vorlage-Meldung an ihren Freund, erklären, wie das Bild macht sie fühlen und bitten höflich um ihre Entfernung zu senden. In der Regel, das ist alles was man braucht – es ist, sagt Milner, "Wir helfen Ihnen eine empathische Reaktion", die alle ein gutes Gefühl hinterlässt. "Wir richten unsere Systeme Menschen zu ermutigen, nicht schön – um über Dinge nachzudenken, bevor Sie Beiträge verfassen."
Es ist ein klassisches Beispiel für was BJ Fogg, eine Stanford-basierte Verhaltensforscherin, in der Psychologie von Facebook spezialisiert, fordert persuasive Design: Wenn Sie Menschen, etwas zu tun, nicht erklären, warum, nur zeigen sie wie. Menschen lernen durch Nachahmung, was, dass die Modellierung nett Verhalten schlägt Vorträge Menschen bedeutet um schön zu sein.
Facebooks Pläne zur Förderung der Harmonie sind in letzter Zeit deutlich ehrgeiziger geworden. Im vergangenen Monat provoziert Chief Operating Officer, Sheryl Sandberg, hochgezogenen Augenbrauen in Davos mit dem Vorschlag, dass Benutzer helfen könnte untergraben dschihadistischen Propaganda mit abgestimmten Gegenoffensive der was nur als organisierte Nettigkeit bezeichnen kann. Sie zitierte eine aktuelle "wie Attack" inszeniert von deutschen Usern eine Neonazi-Gruppe-Facebook-Seite mit Nachrichten der Inklusivität und Toleranz überschwemmt.
Es ist schwer vorstellbar, gehärtete Faschisten als Lovebombed in Reue über Nacht. Aber Sandberg dachte wächst die Überzeugung, dass das Spiel Whac-a-Mole mit Extremisten – Herunterfahren offensive Konten nur für sie wieder unter neue Identitäten auftauchen – erforderlich ist, es nicht reicht. (Twitter hat geschlossen 125.000 Konten mit Isis seit Mitte des Jahres 2015, die das Ausmaß des Problems angibt.) Warum nicht mobilisieren die überwiegende Mehrheit der vernünftigen Menschen zu marginalisieren, was wirklich eine kleine, aber unverhältnismäßig laut extremistische Minderheit ist?
Im Herbst letzten Jahres Facebook startete ein Projekt mit dem Thinktank Demos auf, was es "Counterspeech", nennt Alternativen zu extremistischen Erzählungen, und es hat vor kurzem begonnen, mit Wissenschaftlern am Kings College London, die Dschihad-Propaganda spezialisiert. Es muss nicht alle Antworten noch, sagt Milner, aber "was funktioniert ist die Art von Dingen reden, Sheryl war: Humor und Wärme". Wenn Extremisten versuchen, Angst und Schock verbreiten, könnte Counterspeech bestrebt, sehen klein und lächerlich machen. Facebook plant nun ein Netzwerk von NGOs in ganz Europa und darüber hinaus kultivieren eine basisdemokratische Gegendiskurses zu dschihadistischen Propaganda. Die Frage, der es ist die Auseinandersetzung mit, sagt Milner, ist fast "wie wir Empathie in einer Menschenmenge im Gegensatz zu Privatpersonen ermöglichen?"
Es klingt alles an den Haaren herbeigezogen. Aber eine andere ältere Tech Executive privat vergleicht das Problem der Hassreden online mit Rassismus im Fußball vor Jahrzehnten. Gab es nur so viel Vereine tun könnten, um Masse Verhalten zu ändern, und die echte Shift kam, als die Kampagne Kick It Out ordentlichen Fußball-Fans zu sehen es als ihre Verantwortung gefördert. Hart gegen unsoziales Verhalten von auf hohe funktioniert am besten neben das Ändern der Kultur von unten nach oben.
Vor kurzem beobachtete Cooper Fußball mit einer Freundin, die gerade Twitter beigetreten war. "Es war ein großes Spiel und sie waren die Manager danach interviewen, und seine unmittelbare Reaktion war faszinierend", sagt sie. "Er war über Twitter suchen, betrachten, was die Leute Antworten waren, trainieren" Was soll ich Posten? Ach ja, soll ich sagen was für ein Idiot ich denke, dieser Kerl ist? " Weil es sieht so aus, dass die Art von Dingen sind Sie sagen sollen."
Menschen nehmen unser Stichwort in neuartigen Situationen aus, was alle anderen nicht, was bedeutet, dass in den sozialen Medien, die wir unbewusst Versuche, den allgemeinen Ton übereinstimmen. Beim Sundance Festival herausgegriffen Berners-Lee Twitter für die Schaffung einer Welt, wo "Menschen neigen dazu, Sachen retweet, der sie los geht".
Twitter-Mitarbeiter lehnen klagend die Kritik darauf, dass die Hashtags, die virale gehen oft sehr optimistisch sind. "Es ist Dinge wie #lovewins oder"Sie ist kein Moslem, Homie nicht", Dinge, wo Menschen Gesellschaft mit einer positiven Botschaft anspruchsvoll sind" sagt Nick Pickles, Leiter der öffentlichen Ordnung bei Twitter, gemeinsam Vorurteile, die argumentiert, dass seine große Stärke Menschen ist zu denunzieren.
Aber mit Nutzerzahlen fallen, Twitter nimmt jetzt einen härteren Blick auf seine Kultur.
Psychologe stellte sich Web-Design-Berater Susan Weinschenk, Autor von 100 Dinge jeder Designer muss wissen über Menschen vergleicht die Geschwindigkeit an der aggressives Verhalten Plattformen mit der berüchtigten "broken Windows" These kolonialisiert von Nachbarschaften wie ablehnen. Einen kleinen Vorfall links unangefochten, schnell entsteht der Eindruck, dass alles geht und damit schwerwiegendere Probleme. Sanftere Seelen ausziehen und Störenfriede einziehen.
"Wenn Sie nichts davon in lassen, es wirklich einfach für sie zu eskalieren," sagt sie. "Es ist die zerbrochenen Fensterscheiben Theorie, nur online." Und auf großen Plattformen Windows brechen zu schnell und zu zahlreich zu verfolgen.
Mehrere Plattformen haben experimentiert mit dem Erstellen von Algorithmen, die bedrohliche Muster der Rede, vielleicht sogar Eingreifen automatisch beheizten Austausch – sagen, abkühlen erkennen kann durch Senden einer Nachricht "sind Sie sicher, dass Sie das sagen?" an die Beteiligten.
Aber so weit, sagt Bogdanoff, die Idee von Computern in der Lage zu beurteilen, Anstößigkeit "außerhalb der Filme nicht wirklich funktioniert". Software kämpft mit Sarkasmus, Ironie und die schiere Auswahl an menschliche Störung (die meisten gemeldete Beitrag in YouTube Geschichte, sagt Pickles, war ein Justin Bieber-Video).
Eine weitere zunächst vielversprechende Idee ist Software erlaubt Benutzern, Nachrichten, die Wörter beleidigend für sie persönlich, wie rassische Epitheta zu blockieren. Dr. Claire Hardaker, Dozent für Korpuslinguistik an der Universität Lancaster, führte vor kurzem ein Projekt mit Twitter Analyse Nachrichten an die dringend geregelt werden feministische Aktivistin Caroline Criado-Perez. Sie identifizierte mehrere Schlüsselwörter, die bezeichnenderweise von Leuten, die Drohungen – angefangen bei "Bitch" und "Vergewaltigung" überraschender "lol" – aber leider sagt sie, keiner ist perfekt verlässlicher Indikator für die Mühe. "Nur wenige Worte sind von Natur aus und unbeirrt schlecht. Auch das N-Wort ist durchaus akzeptabel, wenn durch bestimmte Gruppenmitglieder in bestimmten Kontexten verwendet." Dann nennt es sie "das Scunthorpe Problem", wo Fehlalarme produziert einen verbotenen Gruppe von Buchstaben werden gesucht.
Twitter mittlerweile großes Problem ist, ist, dass jede Bewegung hin zu einer sonnigeren, mehr positive Kultur – ein "Safety Council" zu ernennen Belästigung, bietet eine optionale algorithmische Futtermittel, die Tweets fördert könnten Ihnen gefallen, oder die Einführung einer animierten Herzsymbol für Content-Benutzer wie – Aufforderungen wütend Beschwerden, die es wie Facebook wird zu bekämpfen. Während Facebook dreht sich um Freundschaften, verbindet Twitters Raison d ' être fremden Menschen herausfordernde neue Ideen und Perspektiven. Das macht es intellektuell anregend. Aber was passiert, wenn Corbynistas Blairites auf der Website treffen, und es auch sein kann, was einige Benutzer verrückt macht.
Die aufstrebenden Antwort ist was Gurken nennt "erlaubt Benutzern, ihre eigenen Erfahrungen Steuern", zum Beispiel mithilfe der mute-Taste zum Bildschirm aus Menschen sie nicht mögen, ohne dass diese Person zu wissen. Im Wesentlichen ist es eine Möglichkeit erlauben einige Hochtöner, kontroverse Meinungen zu äußern, ohne andere zu stören, die es nicht mögen. Eine Person rechts auf freie Meinungsäußerung ist durch andere Recht, nicht zuzuhören, abgestimmt, wie es auf einer Party sein könnte, wo Sie versuchen zu entkommen, wenn durch die Bohrung in der Ecke gefangen.
Für manche klingt auch das Rückzug in einigen nichtssagenden Blase, wo Sie Sie brauchen nie eine Idee zu treffen, die Sie nicht mochte. Aber wenn die Pioniere der prosoziales Verhalten Recht haben, die Flut kann langsam drehen, auch in einer Gemeinschaft, die einmal freie Meinungsäußerung über alles geschätzt. "Als ich habe angefangen, würde ich sage den Leuten habe ich für die Arbeit und sie wären wie,"Oh, du bist ein Zensor"" sagt Bogdanoff. "Nun erzähle, dass Sie auf zivile Arbeiten sind Kommentar und sie wie"Danke Oh!""