Gewusst wie: einen moralische Roboter (Op-Ed) zu erhöhen
Bertram Malle ist Professor für kognitive, sprachliche und psychologischen Wissenschaften an der Brown University und Co-Leader der Browns Humanity-Centered Robotik-Initiative, welche Studien Mensch-Roboter-Interaktionen, die dringende gesellschaftliche Bedürfnisse zu erfüllen und auch wichtige ethische, rechtliche und ökonomische Fragen aufwerfen können. Er trug diesen Artikel, um Live Science Experten stimmen: Op-Ed & Einblicke.
Hinweis: Dieser Artikel enthält Spoiler für den Film "Kamerad."
In Zukunft werden Menschen, die Roboter zu schaffen viel intelligenter – und ihre Roboter werden viel mehr moralische — als die Porträtierten in der jüngsten film "Kamerad." Anders als im Film lassen Menschen die Hauptschlüssel für eine Anpassung ihrer superintelligenten Agenten in einem Stauraum ohne eine Kaufabwicklung nicht; Sie werden keine Person mit einem gewalttätigen Streifen eine Massentötung Maschine ohne Aufsicht manövrieren lassen. und sie wissen, wie man einen Benutzer von dumping einen Virus in das Metall Gehirne von der ganzen Stadt-Polizei-Roboter-Flotte blockieren.
Roboter, die ihrerseits sollen nicht zu schießen und einen Verbrecher zu töten, wenn dieser Mensch keine Bedrohung ist. Roboter mit Rüstung so stark, dass Waffen im Nahbereich nicht, sie zerstören können werden nur zu Fuß bis zu kriminellen und ihre Waffen mitnehmen. Auch Roboter, die wissen, dass eine Heist ist ein Verbrechen (und weigern sich darauf einlassen) werden auch wissen, dass whacking ein Auto und warf eine Person herum sind Verbrechen (und weigern sich, in ihnen engagieren).
Aber für alle es falsch wird, der Film berührt zu Recht auf die vielleicht entscheidende Herausforderung sicher Roboter in die Gesellschaft zu integrieren: lernen. Menschen sind wohl die stärksten Maschinen lernen im Universum (wie wir es kennen), und wenn Roboter sind Teil der menschlichen Gesellschaft zu sein, müssen sie mindestens zweitbester lernen werden. [25 Roboter setzen ehrgeizige Wettbewerb konkurrieren in diesem Sommer]
Menschen sind unwissend und abhängige, geboren dringend benötigen andere Kenntnisse und Fähigkeiten zu gewinnen. Menschen haben Städte, Wissenschaft und Poesie wegen ihrer immensen Lernfähigkeit angelegt, die entfesselt wird, wenn sie in sozialen Gemeinschaften aufwachsen, in dem alle ihre Lehrer sind.
Dem Schluss, dass Lernen nicht nur programmieren, wahre Intelligenz stammt gewinnt Akzeptanz in der künstlichen Intelligenz (KI) und Robotik Gemeinschaften. Eine wachsende Zahl von Maschine Lernansätze sind jetzt verfügbar, einschließlich inverse Verstärkung lernen, hierarchische Bayes-Modelle, Tiefe lernen, Lehre, lernen und lernen durch Demonstration. Mit diesen Tools Roboter können flexibel neuen Informationen zu assimilieren, schalten Sie diese Informationen in Politik und lernen von Feedback – alle davon können Roboter, Aktionen in dynamisch wechselnden Umgebungen zu optimieren.
Aber das Laufwerk für AI, erfordern weniger Programmierung und mehr lernen müssen ihre Grenzen – und das ist eine Sache Kerlchen uns zeigt. Hilflose, unwissende Roboter im Film lernt schnell von denen um ihn herum. Das Problem ist, dass um ihn herum eine Gruppe von Kriminellen, Schimpfwörter und alle gehören. Gelingt es uns, anspruchsvolle Roboter, die lernen zu bauen, müssen wir Grenzen wie Roboter lernen zu etablieren. Wenn Roboter dürfen, etwas zu lernen, sie können und wollen, in welchem Umfeld sie sich befinden sie möglicherweise genauso wahrscheinlich, brutale Schläger zu werden, wie sie sind, klugen heilig zu werden. [Skurrilen Roboter dringen SXSW Festival (Fotos]
Ein Weg, um dieses Problem zu lösen ist reaktionär Roboter lernen, wo Programmierer schaffen Regeln, Gesetzen und Protokolle, die verbieten, dass einen Roboter lernen alles, was gesellschaftlich unerwünscht ist.
Ein moderater Ansatz wäre demokratische Roboter lernen, in denen Programmierer hartcodieren eine kleine Anzahl von grundlegenden Normen in den Roboter und lassen die restlichen kontextspezifische Normen durch die Interaktion mit der Community zu lernen, unter denen es ausgelöst wird. Grundlegende Normen müssen zur Vermeidung von Schäden (vor allem für den Menschen) zählen aber auch Höflichkeit und Respekt, ohne die soziale Interaktionen nicht gelingen könnte. Eine Vielzahl von spezifischen Normen wird dann abstrakte Normen in konkretes Verhalten (z. B. was es bedeutet, in einem bestimmten Kontext höflich zu sein) zu übersetzen und legen Bedingungen fest, unter denen eine grundlegende Norm kann ein anderes ersetzen (z.B., ist es OK, um Höflichkeit fallen, wenn man versucht, jemanden vor Schaden bewahren).
Demokratische Roboter lernen würde auch einen Roboter im Umgang mit widersprüchlichen Lehrer führen. Sagen Sie eine Person versucht, den Roboter zu teilen beizubringen, und ein anderer versucht, es zu stehlen beizubringen. In diesem Beispiel sollte der Roboter die gesamte Gemeinschaft Fragen, wer der berechtigte Lehrer ist. Immerhin liegen die Normen und Moral einer Gemeinschaft in der Regel mindestens die Mehrheit der Mitglieder dieser Gemeinschaft. Genauso wie Menschen eine natürliche Tendenz zu Leitlinien für ihre Altersgenossen suchen, sollte nachdenklich Crowdsourcing ein weiteres Prinzip, das lernen Roboter gehorchen muss.
Aber nicht solche lernen Roboter übernehmen die Welt und Menschheit auszulöschen? Sie werden wahrscheinlich nicht, weil die Gemeinschaft, in der sie aufwachsen, sie besser lernen. Darüber hinaus statten wir Roboter mit einer unerschütterlichen prosoziales Orientierung. Infolgedessen werden sie moralische Normen folgen konsequenter als Menschen, weil sie nicht sie in Konflikt sehen, wie Menschen es, mit ihrer eigenen egoistischen Bedürfnisse tun. Und in den seltenen Fällen eines Roboters deviant, antisoziale Maßnahmen können wir prüfen den gesamten Datensatz der Roboter Entscheidungsfindung, bestimmen, genau was schief gelaufen ist, und korrigieren. In den meisten Fällen der menschlichen Devianz haben wir wenig Einblick in was schief gelaufen ist in die Gehirne der Menschen Komplex.
Vielleicht die größte Bedrohung von Robotern stammt die größte Schwäche der Menschen: Hass und Konflikte zwischen Gruppen. Im großen und ganzen Menschen sind kooperativ und wohlwollend gegenüber denen, die sie der Auffassung sind Teil ihrer Gruppe, aber sie können böswillige und rücksichtslos gegenüber denen außerhalb ihrer Gruppe geworden. Wenn Roboter solche feindliche Gefühle und diskriminierenden Handlungen lernen, können sie sehr gut geworden, eine Bedrohung für die Menschheit – oder zumindest eine Bedrohung für die Gruppen, die der Roboter "außerhalb" ihrer Gemeinschaft zählt.
Irgendwie müssen die Gesellschaft Roboter aus fortgeführten das dunkle Erbe der Menschheit zu schützen. Wenn wir Erfolg haben, dann können wir Roboter um hilfreich sein für die Menschheit als ganzes Vertrauen — Kreditvergabe eine Hand in der Produktion, Gesundheitswesen, Bildung und Altenpflege. Das ist die KI wir Wissenschaftler weiterhin ermutigen sollte, und diejenigen sind die Roboter, die wir gemeinsam erheben sollte.
Alle Experten stimmen Fragen und Debatten zu folgen – und werden Sie Teil der Diskussion – auf Facebook, Twitter und Google +. Die Meinungen sind die des Autors und spiegeln nicht unbedingt die Meinung des Herausgebers. Diese Version des Artikels erschien ursprünglich am Leben Wissenschaft.