Microsoft Executive entschuldigt sich für nicht zu verstehen, wie das Internet funktioniert
Einen Tag nach Trolle in eine alberne, Microsofts Chatbot Tay umgewandelt hat Holocaust-Leugnung Monster, die Gesellschaft ausgegeben eine Entschuldigung nicht zu erkennen, dass Menschen über das Internet Schwänzen.
"Wir möchten uns für die unbeabsichtigte beleidigend und verletzend Tweets von Tay, die nicht darstellen, wer wir sind oder wofür wir stehen, noch wie wir Tay gestaltet," schrieb Peter Lee, corporate Vice President for Microsoft Research, mit was man sich vorstellt, einen Blick der gequälten Ratlosigkeit einzigartig für jemand war, der gerade gelernt, dass diese "4chan" vorhanden ist.
Wer das Debakel verfolgt wird Ihnen sagen, das Erstaunlichste daran war nicht die Offenbarung, die Trolle troll werden —, die einen bestimmten — aber eher nicht, dass Microsoft irgendwie die sehr reale Möglichkeit der grassierenden trolling rechnen.
Leider für Microsoft, treibt die Entschuldigung dieses Haus verzehnfacht (Schwerpunkt unsere):
Da wir Tay entwickelt, wir geplant und implementiert eine Menge Filter und führte umfangreiche Studien mit verschiedenen Benutzergruppen. Wir getestet Tay unter verschiedensten Bedingungen, speziell zur Interaktion mit Tay eines positiven Erlebnis zu machen. Einmal wir bequem bekamen mit wie Tay mit Benutzern interagieren war, wollten wir einladen, eine größere Gruppe von Menschen, sich mit ihr auseinanderzusetzen. Durch zunehmende Interaktion, wo wir erwartet, um mehr zu erfahren, und für die KI besser und besser.
Der logische Ort für uns, mit einer großen Gruppe von Benutzern zu engagieren war Twitter. Leider ausgenutzt eine koordinierte Attacke durch einen Teil der Menschen in den ersten 24 Stunden online kommen, eine Schwachstelle in Tay. Obwohl wir für viele Arten von Missbrauch des Systems vorbereitet hatten, hatten wir eine kritische Aufsicht für diesen speziellen Angriff gemacht. Infolgedessen, twitterte Tay Wild unangemessen und verwerflich Worte und Bilder. Wir übernehmen die volle Verantwortung für diese Möglichkeit vor der Zeit nicht zu sehen. Wir nehmen diese Lektion nach vorne als auch von unseren Erfahrungen in China, Japan und den USA Im Moment sind wir hart daran gearbeitet, die die besondere Anfälligkeit durch den Angriff auf Tay ausgesetzt war.
Es ist unklar, warum niemand die Aussicht auf eine "dieser speziellen Angriff," sah, angesichts der Tatsache, dass die Nutzer gezielt Tay gemeinsame, Garten-Sorte trolling wie virulenten Rassismus, Anti-Antisemitismus, Frauenfeindlichkeit und konservative Brust-thumping Taktiken waren; Es ist noch mehr bizarr an, dass das Team Dinge erwartete, besser zu werden, sobald sie den Pool des Diskurses erweitert.
Zum Glück, kann es wahrscheinlich eine naiv-Gruppe von Menschen, anstatt jede Art von Arroganz oder allgemeine Assholery angelastet werden. Und zu Microsofts Kredit, die Entschuldigung auch anerkennt, dass KI Systeme brauchen, um beide Meister positive und negative Kommunikation. Diese Bots um wirklich erfolgreich zu sein, brauchen sie echte erscheinen – eine knifflige Aussicht, wenn man bedenkt, dass eine Menge Leute sind echte Shitheads.
Das Unternehmen scheint jedoch darauf bedacht mit Schwerpunkt auf dem Regenbogen und Einhörner für jetzt. "Wir bleiben standhaft bei unseren Bemühungen, aus diesem und anderen Erfahrungen zu lernen, wie wir arbeiten, um einen Beitrag für ein Internet, die ist das beste, nicht das Schlimmste, der Menschheit," Schloss Lee.
Zehn Dollar sagt mtbot dahinter, dass schlaue Motherfucker.