Unglaubliche Technologie: Supercomputer wie riesige Probleme lösen
Anmerkung der Redaktion: In dieser wöchentlichen, LiveScience erforscht wie Technologie treibt wissenschaftliche Erforschung und Entdeckung.
Heutige Supercomputer sind Wunderwerke der Rechenleistung, und sie werden genutzt, um einige der weltweit größten wissenschaftlichen Probleme zu bewältigen.
Aktuelle Modelle sind zehntausende Mal schneller als der durchschnittliche desktop-Computer. Sie erreichen diese blitzschnellen Geschwindigkeiten über parallele Verarbeitung, in dem viele Computer-Prozessoren Berechnungen gleichzeitig ausführen. Supercomputer werden alles von Vorhersage Wetter zur Modellierung des menschlichen Gehirns.
Was Supercomputer auszeichnet, ist die Größe und Schwierigkeit der Aufgaben können sie anzugehen und zu lösen, sagte Jack Wells, Director of Science an der Oak Ridge Führung Computing Facility am Oak Ridge National Laboratory in Tennessee. [9 super-coole Anwendungen für Supercomputer]
"Supercomputer XXL Probleme tun können", sagte Wells.
Supercomputer werden oft aus den gleichen Komponenten wie die regulären Computer gebaut, aber sie sind integriert, so dass sie Wells sagte LiveScience zusammenarbeiten können.
Der erste Supercomputer wurden in den 1960er Jahren, entworfen von Elektroingenieur Seymour Cray von Control Data Corporation (CDC) entwickelt. 1964 veröffentlichte das Unternehmen die CDC 6600, oft als erste Supercomputer der Welt zu werden. Cray gründete später seine eigene Firma, die die Cray-1 im Jahr 1976 und Cray-2 im Jahr 1985 gemacht.
Diese frühen Supercomputer hatte nur wenige Prozessoren, aber in den 1990er Jahren die Vereinigten Staaten und Japan machten, mit Tausenden von Prozessoren. Fujitsus numerische Windkanal wurde der schnellste Supercomputer im Jahr 1994 mit 166 Prozessoren, gefolgt von der Hitachi SR2201 1996 mit mehr als 2.000 Prozessoren. Die Intel Paragon eingefasst in Führung im Jahr 1993. Ab Juni 2013 war Chinas Tianhe-2 der weltweit schnellsten Supercomputer.
Supercomputer-Leistung wird in "Flops", kurz für Gleitkommaoperationen pro Sekunde gemessen. Heutige Maschinen erreichen Geschwindigkeiten in Petaflops — Quadrillions Flops.
Die TOP500 ist ein Ranking der 500 leistungsfähigsten Supercomputer der Welt. Chinas Tianhe-2 erreicht 33,86 Petaflops, während der Cray-Titan 17,59 Petaflops und IBM Sequoia rangiert Dritter auf 17,17 Petaflops erreicht.
XXL-Probleme zu lösen
Forscher haben die Anzahl Knirschen macht der Supercomputer auf komplexe Probleme in Bereichen von Astrophysik bis hin zu Neurowissenschaften Arbeiten genutzt.
Diese rechnerischen Giganten haben Fragen über die Entstehung des Universums beim Urknall. Forscher an der Texas Advanced Computing Center (TACC) simuliert, wie die ersten Galaxien gebildet, und Wissenschaftler am NASA Ames Research Center in Mountain View, Kalifornien, simuliert die Geburt von Sternen. Mit dem Computer wie IBMs Roadrunner am Los Alamos National Laboratory, haben Physiker die Geheimnisse der dunklen Materie, die mysteriöse Substanz sondiert, die etwa 25 Prozent der Masse des Universums bildet. [101 Astronomie-Bilder, die Sie begeistern werden]
Wettervorhersage ist ein weiteres Gebiet, das stark auf Supercomputing angewiesen ist. Z. B. Meteorologen TACC Supercomputer Ranger ermitteln Sie den Pfad der Hurrikan Ike 2008, Verbesserung des fünftägigen Hurrikans um 15 Prozent prognostiziert. Klima-Wissenschaftler verwenden Supercomputer zum globalen Klimawandel Modell, eine herausfordernde Aufgabe mit Hunderten von Variablen.
Tests von Atomwaffen ist in den Vereinigten Staaten seit 1992 verboten, aber Supercomputer Simulationen sicherzustellen, dass die Nation Nukes sicher und funktionell bleiben. IBMs Sequoia Supercomputer am Lawrence Livermore National Laboratory in Kalifornien dient zur Prüfung von nuklearen Explosionen mit verbesserten Simulationen zu ersetzen.
Vermehrt haben Neurowissenschaftler ihre Aufmerksamkeit auf die schwierige Aufgabe der Modellierung des menschlichen Gehirns. Das Blue Brain Project an der École Polytechnique Fédérale de Lausanne in der Schweiz, unter der Leitung von Henry Markram, zielt darauf ab, eine komplette, virtuelle menschlichen Gehirns zu erstellen. Die Projektwissenschaftler nutzen ein Supercomputer von IBM Blue Gene, um die molekularen Strukturen der echten Säugetier-Gehirne zu simulieren. Im Jahr 2006 simuliert Blue Brain erfolgreich eine komplette Spalte der Nervenzellen im Rattengehirn.
Sharing the Last
Die Quintessenz Supercomputer besteht in der Regel von großen Rechenzentren, gefüllt mit vielen Maschinen, die physisch miteinander verbunden sind. Aber verteiltes rechnen könnte auch als eine Form der Supercomputing; Es besteht aus vielen einzelnen Computern über ein Netzwerk (z.B. Internet) verbunden, die einen Teil ihrer Rechenleistung zu einem großen Problem zu widmen.
Ein bekanntes Beispiel ist das SETI@home (Search for Extraterrestrial Intelligence zu Hause)-Projekt, in dem Millionen von Menschen auf ihren Computern, die nach Anzeichen für intelligentes Leben in Funksignale sucht ein Programm ausführen. Ein anderes ist "Falten zu Hause" ein Projekt, um die 3D Struktur von Proteinen vorherzusagen – die biologische Arbeitspferde, die lebenswichtige in unserem Körper Aufgaben – aus der Abfolge der Molekülketten, aus dem sie gemacht sind.
In der Zukunft werden Supercomputer in Richtung "Exascale" Fähigkeiten Rand – etwa 50 Mal schneller als aktuelle Systeme Wells sagte. Dies erfordert mehr Energie, so dass Energieeffizienz ein wichtiges Ziel zukünftiger Systeme wahrscheinlich ansteigen werden. Ein weiterer Trend große Datenmengen für Anwendungen wie die Entdeckung neuer Materialien und Biotechnologien integrieren, sagte Wells.
Folgen Sie Tanya Lewis auf Twitter und Google +. Folgen Sie uns @livescience, Facebook & Google +.