Experten warnen UN-Panel über die Gefahren der künstlichen Superintelligenz

Bei einem kürzlichen Treffen der Vereinten Nationen über globale Risiken, waren politische Vertreter aus der ganzen Welt vor der Bedrohung durch künstliche Intelligenz und andere Zukunftstechnologien gewarnt.
Die Veranstaltung, organisiert von Georgiens UN-Vertreter und die UN interregionale Kriminalität und Justiz Research Institute (UNICRI) wurde eingerichtet, um die Diskussion über die nationale und internationale Sicherheit Risiken durch neue Technologien, einschließlich chemische, biologische, radiologische und nukleare (CBRN) Materialien zu fördern.
Das Panel wurde auch auf eine spezielle Diskussion über die potentiellen Bedrohungen, ausgelöst durch künstliche Superintelligenz behandelt — d. h. AI dessen Fähigkeiten stark die des Menschen übersteigen. Der Zweck des Treffens, gehalten am 14. Oktober war, diskutieren die Auswirkungen der neuen Technologien und wie Sie proaktiv die Risiken zu minimieren.
Das Treffen in vollem Umfang. Max Tegmarks Vortrag beginnt um 01:55 und die Bostrom am 02:14.
Die Sitzung vorgestellten zwei prominente Experten auf die Materie, Max Tegmark, Physiker am MIT, und Nick Bostrom, der Gründer von Oxfords Future of Humanity Institute und Autorin des Buches Superintelligenz: Pfade, Gefahren, Strategien. Beide einig, dass AI das Potenzial hat, die menschliche Gesellschaft auf äußerst positive Weise zu verändern, sondern sie auch Fragen darüber, wie die Technologie könnte schnell außer Kontrolle geraten und sich gegen uns wenden.
Im vergangenen Jahr gewarnt der aktuellen Kultur der Selbstzufriedenheit über superintelligent Maschinen Tegmark, zusammen mit Physiker Stephen Hawking, Informatik-Professor Stuart Russell und Frank Wilczek, Physiker.
"Man sich vorstellen kann solche Technologie austricksen Finanzmärkte, out-menschlichen Forscher, out-Manipulation menschlichen Führer und Entwicklung von Waffen, die wir nicht einmal verstehen können, die zu erfinden", schreiben die Autoren. "Während die kurzfristige Auswirkungen der AI, hängt davon ab, wer es kontrolliert, hängt die langfristige Auswirkung ob es überhaupt gesteuert werden kann."

Nick Bostrom (Credit: UN-Web-TV)
In der Tat, wie Bostrom den anwesenden erklärte, Superintelligenz wirft einzigartigen technische und fundamentale Herausforderungen, und die "Probleme" ist der kritischste.
"Es gibt plausible Szenarien in denen superintelligent Systeme sehr mächtig geworden", sagte er der Versammlung "und es gibt diese vordergründig plausibel Möglichkeiten zur Lösung des Problems der Kontrolle – Ideen, die sofort Frühling Volkspartei Köpfe, die bei näherer Betrachtung erweisen sich zum Scheitern verurteilt. So gibt es diese derzeit offene und ungelöste Problem, wie bessere Kontrollmechanismen zu entwickeln."
Das wird schwierig erweisen, sagt Boström, brauchen wir eigentlich diese Kontrollmechanismen haben, bevor wir diese intelligenten Systeme bauen.
Bostrom geschlossen sein Teil des Treffens mit der Empfehlung, dass ein Feld der Untersuchung festgestellt werden, zu fundamentalen und technischen Arbeiten auf das Steuerelement Problem, während der Arbeit, Top-Mathematik und Computer-Wissenschaft-Experten in diesem Bereich zu gewinnen.
Er rief starke Forschungskooperation zwischen der AI-Sicherheit-Gemeinschaft und AI-Entwickler-Community und für alle Beteiligten das gemeinsame gute Prinzip in allen Langstrecken AI-Projekte einbetten. Dies ist eine einzigartige Technologie, sagte er, eine, die für das gemeinsame wohl der Menschheit, und nicht nur Einzelpersonen oder private Unternehmen entwickelt werden sollten.
Wie Bostrom die UN-Vertreter erklärte, vertritt Superintelligenz eine existenzielle Gefahr für die Menschheit, die er definiert als "eine Gefahr, die droht das vorzeitige Aussterben der Erde stammenden intelligentes Leben oder die permanente und drastische Zerstörung des Potenzials für zukünftige Entwicklung wünschenswert." Menschliche Tätigkeit, warnte Bostrom, stellt eine weit größere Bedrohung für die Zukunft der Menschheit in den nächsten 100 Jahren als Naturkatastrophen.
"Die wirklich großen existentielle Risiken in der anthropogenen Kategorie," sagte er. "Menschen haben überlebt, Erdbeben, Seuchen, Asteroiden Streiks, aber in diesem Jahrhundert werden wir völlig neue Phänomene und Faktoren in der Welt einführen. Die meisten der plausiblen Gefahren haben mit Spannung erwartete zukünftige Technologien zu tun."
Es möglicherweise Jahrzehnte bevor wir die Arten von Superintelligenz beschrieben bei dieser UN-Versammlung sehen, aber angesichts der Tatsache, dass wir über eine existenzielle Gefahr sprechen, es ist nie zu früh beginnen. Ein großes Lob an alle Beteiligten.