Der Guardian Blick auf künstliche Intelligenz: halten Sie Ausschau, es wartet auf Sie
Es gibt eine Tendenz, Intelligenz zu sehen, wo es nicht existiert. Aber es ist genauso falsch, nicht zu sehen, wo es entsteht
Google-künstliche Intelligenz-Projekt DeepMind baut Software, Schleppnetz durch Millionen von Patientenakten aus drei NHS Krankenhäuser Frühzeichen einer Nierenerkrankung zu erkennen. Das Projekt wirft tiefe Fragen nicht nur über den Datenschutz, sondern über die Ethik der künstlichen Intelligenz. Aber das sind nicht die offensichtlichen Fragen über die Ethik der autonomen, intelligente Computer.
Computerprogramme können nun einige Dinge tun, die einmal es, dass nur Menschen tun konnte schien, wie ein ausgezeichnetes Spiel Go zu spielen. Aber auch der cleverste Computer kann nicht ethische Entscheidungen treffen, weil es keinen Zweck in Eigenleben hat. Das Programm, das Go spielt können sich nicht entscheiden, dass es auch einen Führerschein wie sein Cousin, das Programm will, die Google Autos antreibt.
Die ethischen Fragen der Deal beteiligt sind teilweise politisch: sie haben zu tun mit dem Vertrauen eines private US-Unternehmen mit viel Daten, aus denen sie hofft, langfristig viel Geld zu machen. Die bloße Existenz oder Bau, der einen riesigen Datenspeicher mit unvorstellbaren Mengen an Detail über Patienten und deren Behandlungen werden weitere Fragen aufgeworfen. Dies könnte nützlich medizinischen Wissens ergeben. Es könnte sicherlich alle Arten der Beschädigung persönlichen Kenntnisse liefern. Aber Fragen der ärztlichen Schweigepflicht, obwohl ernst, sind nicht neu im Prinzip oder in der Praxis und sie möglicherweise nicht die beunruhigendsten Aspekte des Abkommens.
Was Menschen ängstigt, ist die Idee, dass wir Maschinen, die wird für sich selbst denken bauen, und werden in der Lage zu halten Geheimnisse von uns, die sie verwenden möchten, zu ihrem eigenen Vorteil und nicht zu uns. Die Tendenz, solche Kräfte in der unintelligente und leblose Dinge investieren geht zurück zu den Anfängen der KI-Forschung und darüber hinaus.
In den 1960er Jahren schuf Joseph Weizenbaum, einer der Pioniere der Informatik, Chatbot Eliza, die ungerichtet Psychoanalytiker nachgeahmt. Es verwendet Signale, die von den Benutzern geliefert – "Ich bin besorgt über meinen Vater" – offene Fragen zu stellen: "Wie fühlst du dich über deinen Vater?" Das erstaunliche war, dass Studenten gerne ausführlich zu beantworten waren, als hätte man sie durch eine sympathische, lebendigen Hörer gefragt. Weizenbaum war entsetzt, vor allem als seinen Sekretär, der ganz genau, was Eliza wusste war, ihn gebeten, den Raum zu verlassen, während sie darauf "gesprochen".
Elizas neueste Nachfolger, der Xian'er, der würdig dummen Roboter Mönch, funktioniert in einem buddhistischen Tempel in Peking, wo es Weisheit in Beantwortung der Fragen durch ein Touchpad auf seiner Brust verzichtet. Die Leute scheinen zu Fragen, es ernste Fragen wie "Was ist Liebe?", "Wie bekomme ich weiter im Leben?"; die Antworten sind irgendwo zwischen einem Horoskop und eine Predigt. Da sie nicht völlig berechenbaren sind, wird Xian'er als eine primitive Art von AI behandelt.
Die meisten Diskussionen über AI und die meisten Anrufe für eine Ethik der AI davon ausgehen, haben wir kein Problem erkennen, sobald sich herausstellt. In den Beispielen von Eliza und Xian'er, das ist fraglich. Sie erhalten so intelligent behandelt, obwohl wir wissen, dass sie nicht sind. Aber das ist nur ein Fehler, den wir machen könnten, wenn Sie das Problem zu nähern. Wir könnten auch nicht Intelligenz zu erkennen, wenn es vorhanden ist, oder es entsteht.
Der Mythos von Frankensteins Monster ist irreführend. Möglicherweise gibt es keinen Blitz Blitz Moment wenn wir erkennen, dass es lebendig und unkontrollierbar. Intelligente Köpfe sind aus Milliarden von Neuronen, die nicht selbst intelligente gebaut. Wenn eine Post-humane Intelligenz entsteht, wird es auch von einem System der Teile sein, die als Individuen nicht, in das Post-humane Intelligenz des ganzen teilen. Teile davon Mensch zu sein. Teile wäre EDV-Systeme. Kein Teil verstehen konnte, das ganze aber alle würden ihre Interessen teilen, ohne vollständig zu begreifen.
Solche Hybridsysteme wäre nicht grundlegend von früheren sozialen Erfindungen von Menschen und ihren Werkzeugen, aber ihre Kräfte wäre beispiellos. Bau und erzwingen einen ethischen Rahmen für sie wäre so schwierig, wie es gewesen ist, die Grundsätze des Völkerrechts festzulegen. Es kann aber genauso dringend.