Microsofts CEO hat seinen eigenen AI-Sicherheitsregeln einfallen lassen
Ein Nebeneffekt des Sprechens über das Risiko von so viel killer Roboter ist, dass jeder ist jetzt hetzen, um uns zu versichern, genau, wie sie dies verhindern würde. Microsoft CEO Satya Nadella ist das neueste, uns, auf eine äußerst vage Weise zu beruhigen.
Anfang dieses Monats veröffentlicht Google-Ingenieure eine Papier skizziert fünf Grundsätze der Sicherheit. Ihre Prinzipien waren Dinge wie "negative Nebenwirkungen zu vermeiden", die zwar keine weltbewegenden mindestens waren ziemlich konkrete und illustriert mit Beispielen aus der Reinigungsroboter. Nadella, dargelegt in Schiefermit Jargon gefüllt sind.
1. A.I. müssen entworfen werden, um die Menschheit zu unterstützen: froh, dass wir klar auf diesen einen, ich nicht sicher für ein bisschen da war.
2. A.I. müssen transparent sein: hört sich gut an, obwohl seinen Standpunkt, dass "die Tech werden Dinge über die Menschen wissen, aber die Menschen, über die Maschinen wissen müssen" so offensichtlich scheint, dass die Notwendigkeit darauf hin ein wenig bedrohlich.
3. A.I. müssen Maximierung der Effizienz ohne Zerstörung der würde des Menschen: er fügt hinzu, dass dadurch "die Tech-Industrie sollte nicht vorschreiben, die Werte und Tugenden dieser Zukunft", sondern kann dies bereits passiert. Siehe: jeder versucht, Code zu lernen.
4. A.I. muss für intelligente Privatsphäre ausgelegt sein: Was ist "intelligent" Privatsphäre? Bedeutet "intelligente Privatsphäre" wie wie Facebooks Privatsphäre-Einstellungen so kompliziert nur technisch versierte Leute sind wissen, wie Sie verhindern, dass Fremde ihre tagged College-Fotos sehen?
5. A.I. algorithmische Verantwortlichkeit haben, so dass Menschen unbeabsichtigte Schäden rückgängig gemacht werden können: Frage mich, was er denkt über Googles Kill-Schalter.
6. A.I. müssen davor hüten, Voreingenommenheit, ordnungsgemäße und repräsentative Forschung zu gewährleisten, so dass die falschen Heuristiken verwendet werden können, zu unterscheiden: dieses letzte man ist derjenige, der am deutlichsten geschrieben und am meisten Sinn macht, angesichts aller Instanzen wie eine AI, oh, Menschen mit schwarzer Hautfarbe als Gorillas oder, viel schlimmer eingestuft irrtümlich Flagge schwarz Beklagten als haben ein höheres Risiko für zukünftige Verbrechen zu begehen.
Um fair zu sein, keine realen Sicherheitsregeln können wirklich Leben bis zu Asimovs drei Gesetze der Robotik — aber wenn alle Nadella Jargon läuft darauf hinaus, "Versuche nicht, Menschen zu verletzen", er hätte vielleicht ein wenig besser.