Roboter can't Kill You – und behaupten sie können ist gefährlich
Wenn wir halten Roboter verantwortlich für ihre Handlungen – und Unfälle – wir ihre menschlichen Planer und Betreiber aus dem Schneider lassen.
Roboter-Beteiligung an menschliche Todesfälle ist nichts Neues. Der Tod eines Mannes, war von einem Roboter packte und zerkleinert gegen eine Metallplatte im Volkswagenwerk in Baunatal, Deutschland, erregte umfangreiche Medien. Aber es ist der erste dokumentierte Fall eines Todes mit einem Industrieroboter vor 34 Jahren auffallend ähnlich.
Diese Vorfälle haben vorgekommen und werden wieder passieren. Auch wenn Sicherheitsstandards weiter steigen und die Chance auf einen Unfall passiert untergeht jeder gegebene menschlichen/Roboter Interaktion, solche Ereignisse einfach wegen der immer größer werdende Anzahl von Robotern häufiger.
Das bedeutet, es ist wichtig, diese Art des Vorfalls nicht richtig verstehen, und ein wichtiger Teil des Tuns so nutzt genaue und angemessene Sprache um zu beschreiben. Zwar gibt es ein Sinn, in dem es ist legitim, den Baunatal Vorfall als ein Fall von "tötet Roboter Arbeiter", bezeichnen, da viele Berichte getan haben, ist es irreführend, Grenzen an das unverantwortlich, dies zu tun. Es wäre viel besser, es als ein Fall von "Arbeiter in Roboter-Unfall getötet" auszudrücken.
Zugegeben, legt es auf diese Weise nicht so Auge-grabbing, aber das ist genau der Punkt. Die Tatsache ist, Roboter, trotz, was man möglicherweise aufgefordert werden, glauben aus Sci-Fi und trotz allem, was kann passieren in der fernen Zukunft, derzeit fehlt was wir wahren Absichten, Gefühle und Sinne betrachten. Und im Gegensatz zu den letzten Panikmache behauptet, noch wollen sie diese Kapazitäten in naher Zukunft zu erwerben.
Sie können nur "in dem Sinne, die ein Hurrikan (oder ein Auto oder ein Gewehr) töten kann töten". Sie können nicht töten in den Sinn, den manche Tiere können, geschweige denn im menschlichen Sinne des Mordes. Und doch ist Mord wahrscheinlich sein, was in den Köpfen der meisten Federn, wenn sie lesen, "Roboter tötet Arbeiter".
High-stakes
Beharren auf die richtige Sprache ist keine akademische Übung in Pedanterie. Die Einsätze sind hoch. Für eine Sache, könnte eine ungerechtfertigte Angst von Robotern zum anderen unnötige "künstliche Intelligenz Winter", eine Zeit wo hört die Technologie zur Forschungsförderung erhalten. Dies würde zu verzögern oder leugnen, dass die erheblichen Vorteile Roboter nicht nur Industrie sondern die Gesellschaft im Allgemeinen bringen können.
Aber auch wenn Sie nicht optimistisch, was die Vorteile der Roboter sind, sollten dieses Problem richtig zu machen. Da Roboter Verantwortung haben, ist der Mensch verantwortlich für das, was Roboter tun. Jedoch wie Roboter häufiger, zunehmend erscheint es, werden als ob sie tatsächlich ihre eigene Autonomie und Absichten haben, für die es scheinen sie können und sollten verantwortlich gemacht werden.
Obwohl es schließlich Tag kommen kann, wann diese Erscheinung von der Realität übereinstimmt, werden ein langer Zeitraum hinweg (die bereits begonnen hat) wenn diese Erscheinung wird falsch sein. Schon jetzt sind wir schon versucht zu kategorisieren unsere Interaktionen mit Robotern in was wir dafür verantwortlich sind und was sie zu verantworten haben. Dies erhöht die Gefahr von Sündenböcken des Roboters, und nicht die menschlichen Designer, Anwender und Nutzer beteiligt voll verantwortlich.
Moralische Roboter oder moralisch gemacht Roboter?
Es ist nicht nur die Berichterstattung über Roboter, die brauchen, um die Sprache richtig zu machen. Politiker, Verkäufer und Forschung und Entwicklung, die die Roboter von heute und morgen entwerfen müssen einen klaren Kopf behalten. Anstatt zu Fragen "Was ist der beste Weg, um moralische Roboter machen?", sollten wir Fragen, "Was ist der beste Weg, um moralisch Roboter machen?".
Diese subtile Änderung in der Sprache führt wenn angenommen, zu große Veränderungen im Design. Beispielsweise würde versuchen, Roboter moralische Gesetze folgen geben verlangen von uns, mit einem menschenähnlichen des gesunden Menschenverstandes, gelten diese Gesetze etwas anzubieten, die weit schwieriger wäre. Anstatt eine Design-Sackgasse konnte unser Ziel für Maschinen, die Ergebnisse der Designers Moral, sind so wie wir versuchen, ethisch nicht-Roboter-Technologie zu entwerfen.
In den Volkswagen-Unfall ein Unternehmenssprecher soll gesagt haben "erste Schlussfolgerungen zeigen, dass menschliche Fehler war, eher als ein Problem mit dem Roboter die Schuld". Andere Berichte sprach davon als menschliches Versagen, als der Roboter "Verschulden" oder "verantwortlich". Dies bedeutet, dass in anderen Fällen, könnte der Roboter Schuld an dem Unfall gegolten haben.
Gäbe es ein "Problem mit dem Roboter", es werden fehlerhafte hätte Materialien, eine misperforming Platine, schlechte Programmierung, schlechte Planung der Installation oder operative Protokolle, das Problem – oder nicht vorweg es – noch durch menschliches Versagen verursacht. Ja, es gibt Industrieunfälle, wo kein Mensch oder Gruppe von Menschen ist Schuld. Aber wir dürfen nicht durch das Auftreten der Agentur in Roboter gereizt werden, um ihre menschlichen Schöpfer Verantwortung entbinden. Jedenfalls noch nicht.
Ron Chrisley ist Direktor des Centre for Cognitive Science an der University of Sussex.
Dieser Artikel erschien ursprünglich auf das Gespräch. Lesen Sie den original Artikel.
Image via AP Bilder.