Warum ist falsch "AI Alarmisten" für das diesjährige Luddite Award Nominierung
Die Information Technology & Innovation Foundation hat seine Kandidaten für seine jährliche Luddite Awards veröffentlicht. In der Erkenntnis "der schlimmsten der schlimmsten Innovation Mörder des Jahres", umfasst der diesjährigen Ernte alles von Beschränkungen für Carsharing, Verbote von automatischen Nummernschild-Leser. Aber mit dem Hinweis auf "AI Alarmisten" als Neo-Ludditen, die ITIF ist zu weit gegangen.
Die ITIF ist eine Non-Profit-Think Tank Sitz in Washington, D.C., die konzentriert sich auf Politik, die technologischen Innovation zu fördern. Jedes Jahr stellt die ITIF zusammen eine Liste von was es glaubt, dass die diesjährige schlimmsten Innovation Mörder. Benannt zu Ehren des Ned Lud, ein Engländer, der eine Bewegung im frühen 19. Jahrhundert, mechanische Webstühle zu zerstören führte würdigt die Auszeichnung die krassesten Beispiele einer Organisation, Regierung oder einzelnen Vereitelung des Fortschritts der technologischen Innovation.
"Neo-Ludditen schwingen nicht mehr Vorschlaghämmer, sondern sie schwingen etwas viel stärker: schlechte Ideen," schreibt Robert D. Atkinson, Gründer und Präsident des ITIF. " Für sie arbeiten, um politische Entscheidungsträger und die Öffentlichkeit davon zu überzeugen, dass Innovation die Ursache, nicht die Lösung für einige der größten sozialen und wirtschaftlichen Herausforderungen, und daher etwas vereitelt werden." Er sagt, "sie suchen eine Welt, die weitgehend frei von Risiko, Innovation oder unkontrollierte Änderung."
In keiner bestimmten Reihenfolge sind hier der diesjährigen Nominierten:
- Panikmacher tout eine künstliche Intelligenz-Apokalypse
- Anwälte suchen ein Verbot von "killer-Roboter"
- Staaten begrenzen automatische Nummernschild Leser
- Europa und China wählen Sie Taxifahrer über Carsharing-Passagiere
- Die Papierindustrie ist gegen e-Kennzeichnung
- Kaliforniens Gouverneur Vetos RFID in Führerschein
- Wyoming Outlaws Bürger Wissenschaft
- Die Federal Communications Commission begrenzt Breitband-innovation
- Das Center for Food Safety kämpft gentechnisch verbesserten Essen
- Verbot von Ohio und anderen Rotlicht-Kameras
Die ITIF ausgestellt ein Begleitbericht der diesjährigen Ernte der Nominierten zu erklären, also wenn Sie eine detaillierte Erklärung für jedes Element oben wollen, schlage ich vor Sie check it out. Das Institut hat auch eine Online-Umfrage bitten die Öffentlichkeit, für ihre Lieblings-Eintrag zu stimmen. Die "Gewinner" werden irgendwann im Januar bekannt gegeben.
Blick auf die Liste der Nominierten, sind die letzten sieben Elemente sinnvoll, obwohl ich irgendwie verstehen kann, warum RFID-Tags in Führerschein als eine Privatsphäre und Sicherheit Sorge betrachtet werden könnte. Aber für die ersten beiden und die Auflistung der "AI Alarmisten" als Neo-Ludditen, nun, da mich ein bisschen gestört hat.
Eine AI-Apokalypse zu verhindern
Die ITIF Beschwerde über Panikmacher wirbt eine künstliche Intelligenz-Apokalypse hat zu tun mit einem offenen Brief Anfang dieses Jahres von der Future Life Institute gefertigt. Bill Gates, Stephen Hawking, Elon Musk und andere Persönlichkeiten des öffentlichen Lebens unterzeichnet den Brief, der das Potenzial für AI, um schließlich von unserer Kontrolle entziehen und erweisen sich als eine apokalyptische Bedrohung gewarnt. Zur gleichen Zeit drängten jedoch die Unterzeichner verantwortlich AI Aufsicht als eine Möglichkeit, Risiken mindern und den "gesellschaftlichen Nutzen" der Technologie zu gewährleisten.
(Bild: Avengers: Age of Ultron (2015))
Aber für die ITIF ist nur ein weiterer Versuch, wichtige Neuerung stall. Darüber hinaus behauptet das Institut, dass AI offenbar nichts zu befürchten, weil es in der Zukunft zu weit weg ist.
"Ob solche Systeme immer voll entwickeln werden Autonomie ist eine strittige Frage, aber was nicht umstritten sein sollte ist, dass diese mögliche Zukunft ein langer, langer Weg (mehr wie ein Jahrhundert als ein Jahrzehnt ist), und daher es verfrüht ist, Gedanken über"Skynet"selbst-bewusst zu werden," sagt Atkinson, "könnte in der Tat, Fortsetzung der negativen Kampagne gegen die künstliche Intelligenz potenziell vertrocknen Finanzierung der KI-Forschung als Geld für gewusst wie: Steuern, anstatt AI zu ermöglichen. "
Atkinson behauptet, dass diese Sci-Fi-Weltuntergangs-Szenarien machen es schwieriger für die Öffentlichkeit, Politiker und Wissenschaftler, um mehr Mittel für die KI-Forschung zu unterstützen.
Bezeichnenderweise nicht der ITIF das kürzlich angekündigte non-Profit-OpenAI Marktforschungsunternehmen Mitbegründer von Elon Musk erwähnt. Die $ 1 Milliarde Initiative engagiert sich für "digital Intelligence in einer Weise, die am ehesten zugunsten der Menschheit als Ganzes voran." Das Projekt schließt sich an ähnlichen Initiativen ins Leben gerufen durch namhafte Unternehmen wie Google, Apple und IBM. Mehrere ähnliche akademische Initiativen bestehen auch, einschließlich der Future of Humanity Institute in Oxford und der kürzlich ins Leben gerufene Mitte für die Studie der existenziellen Gefahr an der University of Cambridge.
Diese Initiativen – ganz zu schweigen von den Milliarden für KI-Forschung und Entwicklung auf der ganzen Welt – zeigen, dass Atkinsons Bedenken übertrieben sind. Was mehr ist, und im Geiste des FLI offener Brief, ist es auf jeden Fall nicht zu früh, um über die potenziellen Risiken zu denken. Das Überleben der Menschheit könnte gefährdet sein. Das Aufkommen der starke künstliche Intelligenz – und vor allem künstliche Superintelligenz– könnte sich als die am meisten störende technologische Innovation in der Geschichte unserer Gattung, so dass es wichtig ist, dass wir es richtig machen. Natürlich reden wir nicht über Ned Luds dampfbetriebenen Webstühlen.
Tod der Tötungsmaschinen
Und dann gibt es das Problem der autonomen Waffen. Teil der ITIF Beschwerde hat mit einem anderen offenen Brief im Auftrag von FLI, einem Aufruf für ein völliges Verbot autonomer Tötungsmaschinen zu tun. Unterzeichner enthalten Hawking, Moschus, Steve Wozniak, Noam Chomsky, MIT Physiker Max Tegmark und Daniel C. Dennett.
(Bild: Robocop (1987))
Die ITIF hatte auch ein Problem mit einem Vereinten Nationen treffen Anfang dieses Jahres um zu prüfen, eine förmliche Verbot oder andere Beschränkungen auf Killer AI und einen Sonderbericht aus der Feder von Human Rights Watch und Harvard Law School, die ein Moratorium für solche Waffen drängte.
Atkinson, sagt die Argumente gegen die Tötungsmaschinen "übersieht die Tatsache, die das Militär eindeutig profitieren, weil Roboter ersetzen für Soldaten auf dem Schlachtfeld ein militärischer Fähigkeiten erhöhen werden, während wesentlich verringert das Risiko für ihr Personal," fügte hinzu, dass es "möglich, dass autonome Waffen programmiert werden konnte sich nur bekannt feindliche Kombattanten, die sogar zu einem Rückgang der Zivilunfall führen können."
Atkinson, schließt mit den Worten, dass "der Kampf um autonome Waffen, ähnlich wie der Kampf um künstliche Intelligenz, verbieten arbeitet gegen das gesellschaftliche Ziel des Aufbaus von Innovationen, die Menschenleben verbessern werden."
Die ITIF ist Recht darauf hin, dass Roboterwaffen das Potenzial zur Reduzierung der Todesfälle auf dem Schlachtfeld haben, aber die Vorstellung, die dass diese Systeme in der Lage, die Unterscheidung zwischen Kombattanten und Zivilisten sein werden ist schwer zu schlucken. Darüber hinaus hat es wie bei jeder militärische Innovation, davon auszugehen, dass der Feind schließlich seine eigene Version zu entwickeln. Schließlich könnte ein AI-Wettrüsten superintelligent Systeme um die Vorherrschaft außerhalb der menschlichen Verständnis und Kontrolle kämpfen. Dies sollte geschehen, wir haben keine andere Wahl aber, lehnen Sie sich zurück und hoffen nicht wir dabei zerstört.
Ein grundsätzliches Problem mit der ITIF ist seinen unerschütterlichen Glauben in menschlichen Gesellschaften, um seine Technologien anzupassen. Bisher haben wir weitgehend gelungen ist. Wir haben es sogar geschafft zu überleben – zumindest vorerst – die Entwicklung der ersten apokalyptischen Ausmaßes Waffe in Form von Atombomben. Bedauerlicherweise erwarten uns andere Gefahren in der Zukunft, damit wir beste bereit.
Zur gleichen Zeit verdienen wir das Recht vor, diese potenziellen Gefahren ohne die Angst vor einem Luddite gebrandmarkt zu warnen.
[ ITIF I, II, III ]