In der Zwischenzeit in die Zukunft: jeder ist in einer Ruf-Datenbank überprüft
Vor kurzem bekam eine app namens Peeple eine ganze Menge Aufmerksamkeit für den Versuch, die Yelp für den Menschen werden. Aber es ist nur eine in einer wirklich langen Reihe von Anwendungen, die versuchen, Verbraucher Bewertungen auf Menschen anzuwenden.
Die app lässt LuLu Frauen für die Männer bewerten sie datiert haben. Die app lud SketchFactor, Bewertungen für Nachbarschaften zu verlassen. Und auf einer bestimmten Ebene apps wie AirBnB, Rate My Professor, Uber und ZocDoc sind alle Orte, wo Menschen anderen Menschen überprüfen können.
Aber was wäre, wenn wir in einer Welt lebten, wo alles, was Sie tun, eine Bewertung durch eine Kombination von Maschinen und anderen Menschen ausgeteilt unterliegt? Andere Treiber können Bewerte deine Straße Etikette. Ihre Mitarbeiter können Ihre Arbeit und Ihre Persönlichkeit überprüfen. Ihre Teamkollegen können Ihre Leistung auf dem Fußballplatz überprüfen. Ihre Partner können überprüfen Ihre, ähem, Leistung.
Es gibt eine Reihe von Science-Fiction-Geschichten über diese Art der Zukunft, wo Ruf ist etwas, das sehr wertvoll ist. Das Buch Super Sad True Love Story von Gary Shteyngart wurde von zwei der drei Gäste in dieser Woche erzogen. Und Futuristen haben tatsächlich einen Namen für diese Idee, es nennt sich "Ruf Wirtschaft." Und es ist bereits im Gange.
Michael Fertik, der Gründer von Reputation.com und der Autor des Buches The Reputation Economy, Gespräche über die Episode über die Möglichkeiten, die Marken und Unternehmen sind bereits kompilieren Ihre Informationen in einem Profil, die ihnen hilft, Entscheidungen über Sie. LinkedIn, AirBnB, Uber, sie sammeln alle nennt Fertik Ihre "digitale Auspuff" um mehr über Sie erfahren.
Aber es war etwas über die app Peeple, die wirklich die Menschen wütend gemacht. Die Gründer von Peeple gab ein Interview mit der Washington Post, und sobald diese Geschichte live gegangen waren sie mit wirklich heftige Kritik überhäuft. Ein Gründer sagte, dass sie sogar Morddrohungen erhielt. Menschen wirklich wie nicht Peeple. Was macht Peeple anders als sagen AirBnB, wo Sie Ihre Mieter bewerten? Jeff Hancock, Professor für Kommunikation an der Standford, sagt, dass es darum geht, Ihre zwischenmenschlichen Beziehungen in Transaktionen zu drehen.
Er gibt in diesem Beispiel: Wenn dein Freund zum Abendessen kam und brachte eine $20 Flasche Wein, würde Sie ihr danken. Wenn dein Freund vorbeikam und übergab Sie vier $5 Rechnungen, wäre Sie ein wenig verwirrt. Sie sind die gleiche Art von, aber man macht die Idee, dass Freundschaften und hängen, einer geschäftlichen Transaktion.
Wenn wir Dinge, als Unternehmen oder Produkte sehen, sind wir mit der Überprüfung sie okay. Das macht Yelp und Amazon in Ordnung. Und es ist auch das, was macht die Menschen mit Dingen wie Rate My Professor und ZocDoc in Ordnung. Ihr Professor und Arzt stellen Ihnen Dienstleistungen zur Verfügung. Und es gibt alle Arten von Rating-Systeme, für Babysitter und Uber Treiber und Klempner. Fertik sagt, dass nur jeweils in ihrem eigenen kleinen Raum passiert, halten wird.
Aber in 15 oder 20 Jahren könnte diese Reputation-Systemen kombiniert werden. Und sie könnten Ihr Leben völlig diktieren: was Sie bei der Arbeitssuche, welche Versicherungen Sie sind angeboten, wer Sie ausgehen, wo Sie leben,. Und das ist, wo Menschen anfangen zu kümmern.
In Super Sad True Love Storyist diese Zukunft keine Utopie. In der Tat in den meisten Science-Fiction beinhaltet, dass jede Art von Rufsystem wie dieses, es ist schnell umgestürzt und verwendet, um Menschen zu kontrollieren. Alison Hearn, Professor für Medienwissenschaft an der Western University in Kanada, sagt, dass oft solche Bewertungssysteme betreiben im Namen von Marken, nicht Menschen. Und als solche sind sie voreingenommen gegenüber einer bestimmten Art von Überprüfung und Ergebnis.
In einigen Fällen fühlen sich die Menschen, von der Idee der Bewertung anderer Menschen hochgerechnet. Die app Peeple ist ein gutes Beispiel dafür. Aber es gibt viele Fälle, wo man sich vorstellen kann Leute leicht überprüfen gegenseitig im Wege, die nicht allzu positiv. Nehmen Sie zum Beispiel fahren. Wenn Sie ein Verfahren zur Einstufung von anderen Fahrern um dich herum hatten, würden Sie es nehmen? Wenn jemand Sie abgeschnitten, Sie würde sie überprüfen?
Sie würde wahrscheinlich. Jeder denkt, sie sind ein besserer Fahrer als alle anderen, obwohl das unmöglich ist. Und es gibt viel der Forschung zeigen, dass Menschen Dinge in Autos zu tun, die sie in eine andere Einstellung nie tun würde. Road Rage ist eine sehr reale Sache. Also, wollen Sie für Ihre Fahrgewohnheiten bekannt sein? Wollen Sie, dass einmal schneiden Sie vor jemandem zu bleiben, für immer, in Ihrem Profil ansehen?
Das treibende Beispiel erhält auf ein weiteres Problem vieler Menschen zu sehen, mit dieser Art von Ruf getrieben Systeme: sie sind eher schlechtes Benehmen als gutes Verhalten zu melden. Menschen gehen zu diesen Orten, wenn sie eine Beschwerde weit mehr haben als ein Kompliment, wenn sie haben.
Aber selbst wenn sind nicht bösartig Menschen – und natürlich wird es immer Leute, die diese Systeme um Menschen anzugreifen, sie widersprechen-Spiel – gibt es ein sehr reales Problem der Kodifizierung der Arten von impliziten und expliziten Vorurteile Menschen haben.
Fertik prognostiziert, dass in nur fünf Jahren nicht Unternehmen stellen veröffentlichen, aber eher stecken Sie ihre Wünsche in eine Datenbank, die richtige Person zu finden. Arbeitsplätze zu euch kommen, sagt er. Aber dieses Auswahlverfahren wird wahrscheinlich gehört auch Parameter außerhalb jemandes direkte Qualifikation. Sie werden auch Dinge, die versuchen, auf ihre Persönlichkeit, ihre "kulturelle Übereinstimmung", mit dem Unternehmen.
Aber oft wird die Idee der "passen" oder "Kultur-match" bei der Einstellung, nicht Leute einzustellen, die nicht wie der Rest des Unternehmens aussehen verwendet. Um es mehr zu sagen unverblümt, nutzen Unternehmen diese Worte nicht diverse Kandidaten einstellen. Mieten Sie keine Person, die deaktiviert ist oder Transgender oder schwarz. Wenn Unternehmen "kulturelle" Parameter in einen Algorithmus zu Übereinstimmungen von möglichen Kandidaten ziehen einstecken, sind die Kandidaten alle wollen wirklich ähnlich aussehen. Und die Leute, die nicht die richtigen Keywords, die mit ihrem Profil verknüpft sind kein Glück.
Wenn finanzielle Erfolg, persönlicher Erfolg, Wohnmöglichkeiten, Essen alles, was in diesem Reputationssystem, die Menschen, die das Verständnis das Geld gebunden ist und zu machen, es Ruf System Arbeit für sie gelingt. Die Menschen, die dies nicht tun, wird nicht. Und diese Leute sind manchmal unsere wertvollsten Menschen. Hearn macht sich sorgen, dass Menschen, die Gitter oder rebellisch sein könnten oder kreativ, Menschen, die nicht entsprechen, werden mit einem "schlechten Ruf" bestraft und aussperren aus alles aus dem Gehäuse zu Schulbildung zu Beschäftigungsmöglichkeiten. Natürlich geschieht dies bereits, aber es lohnt sich Fragen, ob wir es noch einfacher machen wollen.
Eine schnelle Programmierung Anmerkung: Dies ist unser 23. Episode der inzwischen in die Zukunft, und es ist tatsächlich die letzte Episode in der ersten Staffel der Show. Ich weiß, Sie hatte keine Ahnung, wahrscheinlich gab es sogar eine erste Saison passiert, aber es gab! Und das ist das Ende davon. Werden wir nehmen eine kleine Pause, bevor die Saison startet wieder, aber ich verspreche, dass es das warten Wert sein wird. Ich habe tonnenweise tolle Episoden Staffel geplant.
Wenn Sie Gedanken über Futures wir erforschen sollte auf den Podcast haben, lassen Sie uns einen Hinweis in den Kommentaren, auf Twitter, auf Facebook, oder uns eine e-Mail an [email protected]. Und wenn Sie uns Ihre Meinung über Season One senden möchten, wir freuen uns zu hören. Wie immer können Sie abonnieren den Podcast auf iTunes, Soundcloud oder über was RSS lesen app Sie gewählt haben.
Illustration von Tara Jacoby