Sogar Algorithmen sind voreingenommen gegen schwarze Männer
Eine Studie über Straftäter in Florida widerlegt die Vorstellung, dass Computer objektiver als Menschen sind
Eines meiner wertvollsten Besitztümer ist The Art of Computer Programming , von Donald Knuth, ein Informatiker, bei denen das Wort "legendären" geprägt haben könnten. In gewisser Weise könnte man meinen, der sein Opus Magnum als Versuch für Informatik zu tun was Russells und whiteheads Principia Mathematica für Mathematik hat – also zurück zu den Grundlagen des Feldes und schauen sich die grundlegenden Elemente.
In der Informatik ist eine der diese grundlegenden Elemente der Algorithmus – eine eigenständige, Schritt für Schritt Reihe von Operationen in der Regel von einem Computer durchgeführt werden. Algorithmen sind ein bisschen wie die Rezepte, die wir in der Küche verwenden, aber sie müssen viel genauer zu sein, weil sie von dummen, Literal denkende Geräte genannt Computer implementiert werden müssen.
Algorithmen sind die Bausteine aller Computer-Programme und Knuths Meisterwerk widmet sich der Analysis. Sind sie endliche (dh nach einer endlichen Anzahl von Schritten beenden)? Wird jeder Schritt genau definiert? Was sind die Input und Output? Und ist der Algorithmus effektiv? In der Breite Austragung seiner lehramtlichen Untersuchung ist jedoch eine Frage, die Knuth nie bittet eines Algorithmus: Was sind ihre ethischen Implikationen?
Das ist übrigens keine Kritik. Solche Fragen waren nicht relevant für sein Projekt, das war es, Informatik auf ein solides Fundament. Außerdem schrieb er in den 1960er Jahren, als die Idee, dass Computer tiefgreifende soziale, wirtschaftliche und politischen Auswirkungen haben könnten nicht auf jedermanns Radar war. Der Gedanke, dass wir eines Tages in einer "Informationsgesellschaft" Leben würde das war umfassend abhängig von Computer würde phantasievoll für die meisten Menschen vorgekommen.
Aber diese Gesellschaft gekommen, Pass, und plötzlich die Algorithmen, die die Bausteine dieser Welt sind haben eine neue Bedeutung genommen, weil sie begonnen haben, macht über unser täglichen Leben zu erwerben. Sie bestimmen, ob wir ein Bankdarlehen oder eine Hypothek bekommen können und unter welchen Bedingungen z. B.; ob unsere Namen auf No-Fly-Listen gehen; und ob man als potenzielle Kriminelle die lokale Polizei oder nicht betrachten.
Um nur ein Beispiel, Richter, Polizei und Bewährung nehmen nutzen Offiziere quer durch die USA nun ein Computerprogramm um zu entscheiden, ob eine strafrechtliche Beklagte oder nicht missachten dürfte. Die Grundidee ist, dass ein Algorithmus wahrscheinlich "objektiver" und konsequent als die mehr subjektive Beurteilung der menschlichen Beamten. Der Algorithmus in Frage ist Compas (Correctional Täter Management Profiling für Alternative Sanktionen) genannt. Als Angeklagte ins Gefängnis gebucht werden, sie reagieren auf einen Fragebogen, Compas und ihre Antworten fließen in die Software um Vorhersagen der "Rückfall" und "Risiko von gewalttätigen Rückfall" zu generieren.
Es stellt sich heraus, dass der Algorithmus auf die Rückfälligkeit Vorhersage ziemlich gute und weniger gute bei der Vorhersage der heftigen Sorte. So weit so gut. Aber wisst ihr was? Der Algorithmus ist nicht farbenblind. Schwarzen Angeklagten, die nicht über einen zwei-Jahres-Zeitraum Monat wurden fast doppelt so häufig als höheres Risiko im Vergleich zu ihre weißen Pendants falsch klassifiziert werden; weiße Angeklagten, die innerhalb der nächsten zwei Jahre reoffended hatte irrtümlich geringes Risiko fast doppelt so häufig als schwarze Wiederholungstäter beschriftet worden.
Wir wissen das, nur weil die ProPublica-Website ein bemerkenswertes Stück investigative Berichterstattung verpflichtet. Über eine Freiheit des Informationen Antrags die Journalisten erhalten die Compas-Resultate von fast 12.000 Straftäter in Florida und dann ein Profil jedes einzelnen Vorstrafen gebaut, sowohl bevor als auch nachdem sie geschossen wurden. Die Ergebnisse der Analyse sind ziemlich klar. Wenn Sie schwarz sind, sind die Chancen, einen potenziellen Reoffender beurteilt deutlich höher als wenn du weiß bist. Und doch sind diese algorithmischen Vorhersagen nicht durch Beweise bestätigt.
Zyniker könnten sagen, dass dies keine Überraschung: Rassismus zieht sich durch die US-Justiz-System wie die Nachricht in einem Stick von Felsen. Einer von drei schwarzen Männern können erwarten, zu seinen Lebzeiten (verglichen mit einer von sechs Latinos und einer in 17 weißen) eingesperrt werden. Das soll ein Argument dafür, Einschätzungen und Prognosen mit einem Algorithmus anstatt Beamten beeinträchtigt werden können. Und noch diese Analyse des Systems der Compas legt nahe, dass sogar die Maschine verfügt über eine rassistische Vorurteile.
Das große Rätsel ist wie schleicht sich die Vorspannung in der Algorithmus. Wir möglicherweise in der Lage zu verstehen, wie wenn wir es untersuchen können. Aber die meisten dieser Algorithmen sind proprietär und geheim, so dass sie effektiv "Black Boxes" – virtuelle Maschinen deren Funktionsweise undurchsichtig sind. Noch schrieb die Software darin Menschen, von denen meisten wahrscheinlich nicht bewusst waren, dass ihre Arbeit jetzt eine wichtige moralische Dimension hat. Vielleicht sollte Professor Knuth nächste Buch The Ethics of Computer Programming.