Das Militär verbringen Millionen zum Bau von Robotern mit Moral
Stellen Sie sich eine Zukunft, wo autonome Roboter Leben oder Tod nicht nur anhand der Daten, sondern eine vorprogrammierte Moralkodex Entscheidungen. Dies ist nicht die Handlung eines dystopischen Romans. Es ist die Richtlinie eine neue Pentagon-Programm, das Ihre Socken abschrecken wird.
In den nächsten fünf Jahren vergibt das Office of Naval Research $ 7,5 Millionen in Zuschüssen für Universitätsforscher, einen Roboter zu bauen, der richtige vom falschen kennt. Diese moralische Konsequenz könnte Sinn autonome Systeme effizienter zu betreiben und, naja, autonom. Und einige Leute glauben sogar, dass Maschinen bessere als Menschen, Entscheidungen könnten da sie streng befolgen Sie die Regeln für den Einsatz auf das Schreiben und das Ergebnis mehrere verschiedene Szenarien berechnen.
Es ist Art sinnvoll, wenn Sie so denken. "Mit Drohnen, Rakete definiert, autonome Fahrzeuge usw., das Militär ist schnell erstellen Systeme, die moralische Entscheidungen treffen müssen" AI-Forscher Steven Omohundro erzählte Eine Verteidigung. "Menschenleben und Eigentum beruhen auf die Ergebnisse dieser Entscheidungen und so ist es wichtig, dass sie sorgfältig und umfassend über die Möglichkeiten und Grenzen der Systeme eingebunden werden. Das Militär seit jeher "die Regeln des Krieges" zu definieren und diese Technologie ist der Einsatz dafür zunehmen."
Programmierung von Robotern mit einem bestimmten moralischen Code hingegen nimmt an, dass wir alle bestimmte Moralkodex zustimmen können. Ohne Graben zu weit in Ihren College-Philosophie-Lehrplan, es ist leicht zu verstehen, wie dies sein könnte eine ziemlich umstrittene Aufgabe. Und während Computer-Rechenleistung, sagen, nützlich, könnte wenn besseres handling Triage in einem Feldlazarett, wird es sehr schwierig, wenn Sie Raketen auf Menschen gerichtet sind.
"Ich glaube nicht, dass sie am Ende mit einem moralischen oder ethischen Roboter", sagte Noel Sharkey, eine andere AI-Experte, in Reaktion auf die Nachricht. "Dafür brauchen wir Entscheidungsfreiheit haben. Dafür brauchen wir andere verstehen und wissen, was es bedeutet, zu leiden. Mit einigen Regeln der Ethik des Roboters installiert werden, aber es wird nicht wirklich interessieren. Es folgt eine menschliche des Designers der Ethik."
Die Debatte geht weiter und weiter. Es lohnt sich, aber vor allem, da wir mehr und mehr von Maschinen abhängig sind. Und Forschung schlägt vor, dass wir bereits Roboter moralisch für ihre Handlungen zur Rechenschaft ziehen. Warum nicht programmieren einige Sitten hinein? Vielleicht weil vielleicht dann sie entscheiden würde, dass das richtige zu tun, übernehmen Sie die Kontrolle der Welt Weg von schwachen Menschen. Sie haben Asimov gelesen. Sie wissen, wie diese Geschichte endet.