Können Roboter ethische Entscheidungen treffen?
Roboter und Computer oft sollen autonom handeln, das heißt,
ohne menschliches Zutun. Ist es möglich, dass eine autonome Maschine
machen moralische Urteile, die den menschlichen Urteil entsprechen zu?
Diese Frage hat Anlass zu der Frage der Maschine Ethik und
Moral. Als praktische Angelegenheit kann ein Roboter oder Computer programmiert werden
ethisch zu handeln? Kann eine Maschine werden gestaltet, moralisch zu handeln?
Asimovs berühmte grundlegende Regeln für Robotik
ethisches Verhalten auf autonome Maschinen verhängen sollen. Fragen
über ethisches Verhalten finden Sie in Filmen wie dem 1982 Film Blade Runner. Wenn der Replikant Roy Batty die Wahl erhält, seinen Feind, den menschlichen Detective Rick Deckard, sterben zu lassen, wählt Batty stattdessen um ihn zu retten.
Eine aktuelle Publikation im International Journal of
Argumentation-basierte intelligente Systeme beschreibt eine Methode für Computer
prospektiv vorausschauend über die Folgen der hypothetischen moralischen
Urteile.
Das Papier, Modellierung Moral mit potenziellen Logik,
von Luís Moniz Pereira von der Universidade Nova de Lisboa geschrieben wurde,
in Portugal und Ari Saptawijaya der Universitas Indonesien. Die
Autoren erklären, dass die Moral nicht mehr exklusiven Bereich der menschlichen
Philosophen.
Pereira und Saptawijaya glauben, dass sie erfolgreich waren beide in
Modellierung der moralischen Dilemmas innewohnt, ein bestimmtes Problem genannt "die"
Trolley-Problem"und bei der Schaffung eines EDV-Systems liefert, die moral
Urteile, die den menschlichen Ergebnisse entsprechen.
Das Trolley-Problem legt ein typisches moralisches Dilemma; ist es
zulässig, eine oder mehrere Personen zu Schaden, um andere zu retten?
Es gibt eine Reihe von verschiedenen Versionen; Schauen wir uns nur diese beiden.
Umständen Es ist ein Wagen und sein Dirigent hat fiel in Ohnmacht.
Der Trolley ist auf fünf Menschen zu Fuß auf dem Weg der Spitze. Die
Banken des Tracks sind so steil, dass sie nicht
werden Sie in der Lage, abseits der Pfade in der Zeit.Zuschauer-version Hank steht neben einem Schalter, was er kann
Werfen Sie, die
schaltet sich den Wagen auf eine parallele Nebengleis, wodurch es
von den fünf Menschen getötet. Allerdings gibt es ein Mann auf der
Nebengleis mit dem Rücken gedreht. Hank kann den Schalter werfen töten
ihn; oder er kann zu unterlassen, die fünf sterben zu lassen.Ist es moralisch zulässig für Hank, den Schalter zu werfen?
Was denkst du? Eine Vielzahl von Studien wurden durchgeführt in
unterschiedlichen Kulturen, die gleiche Frage. Zwischen den Kulturen, die meisten
Menschen stimmen darin überein, dass es moralisch zulässig, den Schalter zu werfen und
die größere Zahl von Menschen zu retten.
Hier ist eine weitere Version mit den gleichen ursprünglichen Umständen:
Steg-version
Ian ist auf der Fußgängerbrücke über die Strecke Wagen. Er kommt als nächstes
um einen schweren Gegenstand, die er auf die Strecke in den Weg schieben kann die
Wagen, ihn zu stoppen und verhindern, dass es fünf Menschen getötet.
Die schwere Gegenstand ist ein Mann, neben Ian steht mit dem Rücken gedreht.
Ian kann den Mann auf das Gleis mit Todesfolge schieben; oder er kann
unterlassen Sie dies zu tun, die fünf sterben zu lassen.Ist es moralisch zulässig für Ian, den Mann zu schieben?
Was denkst du? Wiederum wurden Studien über Kulturen hinweg durchgeführt,
und die konsequente Antwort wird erreicht, dass dies nicht moralisch ist
zulässig.
So, hier haben wir zwei Fälle, in denen Menschen unterschiedliche moralische
Urteile. Ist es möglich für autonome Computersysteme oder Roboter
kommen, um die gleiche moralische Urteile als Menschen machen?
Die Autoren des Papiers behaupten, dass sie erfolgreich gewesen
bei der Modellierung von diese schwierigen moralischen Probleme in Computer-Logik. Sie
gelang dieses Kunststück durch Auflösen der versteckten Regeln, mit denen Menschen in
moralische Urteile und modellieren sie dann für den Computer mit
angehende Logikprogramme.
Ethische Dilemmata für Roboter sind so alt wie die Idee des Roboter in
Fiktion. Ethisches Verhalten (in diesem Fall, Selbstaufopferung) findet man bei
Ende der 1921 spielen Rossum es Universal Robots, des tschechischen Dramatikers Karel Capek. Dieses Spiel hat den Begriff "Roboter" eingeführt.
Science-Fiction-Autoren haben den Weg für den Rest von uns vorbereitet;
autonome Systeme sind nicht mehr nur das Zeug von Science Fiction. Für
Beispiel, wie Robotersysteme die Predator-Drohnen
auf dem Schlachtfeld höheres Maß an Autonomie gegeben. Sollte
Sie dürfen Entscheidungen darüber, wann die ihre Waffen
Systeme?
Die Luft-und Raumfahrtindustrie ist fortschrittliche Flugzeug entwerfen, die hohe Geschwindigkeiten erreichen und komplett auf Autopilot fliegen. Kann ein Flugzeug Leben oder Tod besser als ein menschlicher Pilot Entscheidungen?
Das H-II Transfer Vehicle,
ein Raum voll automatisierte Frachter, startete erst letzte Woche von der
Der japanischen Raumfahrtagentur JAXA. Sollten Menschen an Bord der Raumstation
verlassen Sie sich auf automatisierte Mechanismen für die lebenswichtigen Bedürfnisse wie Nahrung, Wasser und andere
Lieferungen?
Letztlich werden wir alle müssen den Komfort in Einklang zu bringen
Robotersysteme mit der Annahme der Verantwortung für ihre
Aktionen. Wir sollten die ganze Zeit, dass Science-Fiction genommen haben
Autoren, die uns zum Nachdenken über die moralischen und ethischen Probleme der gegeben haben
autonome Roboter und Computer; Wir haben nicht viel mehr Zeit, um
Unsere Gedanken.
- 5 Gründe für Angst-Roboter
- Gadgets Gone Wild - Top 10 AI Run Amok
- Weitere Roboter News
Diese Science Fiction in die Nachrichtenmeldung verwendet mit freundlicher Genehmigung von Technovelgy.com.