Supercomputer

Der Columbia-Supercomputer der NASA mit 20×512 Intel-Itanium-2-Prozessoren
Logik-Recheneinheit eines Cray X-MP-Rechners, etwa Mitte der 1980er Jahre

Als Supercomputer (aus dem Englischen entlehnt, dazu teilweise übersetzt Superrechner und weiter übersetzt „[der] Großrechner“; außerdem auch Hochleistungsrechner[1][2] genannt) werden für ihre Zeit besonders schnelle Computer (Allzweckrechner) bezeichnet. Dabei ist es unerheblich, auf welcher Bauweise der Computer beruht, solange es sich um einen universell einsetzbaren Rechner handelt. Ein typisches Merkmal eines modernen Supercomputers ist seine besonders große Anzahl an Prozessoren, die auf gemeinsame Peripheriegeräte und einen teilweise gemeinsamen Hauptspeicher zugreifen können. Supercomputer werden häufig für Computersimulationen im Bereich des Hochleistungsrechnens eingesetzt.

Supercomputer spielen eine essenzielle Rolle im wissenschaftlichen Rechnen und werden dort in diversen Disziplinen eingesetzt, etwa Simulationen im Bereich der Quantenmechanik, Wettervorhersagen, Klimatologie, Entdeckung von Öl- und Gasvorkommen, Molekulardynamik, biologischen Makromolekülen, Kosmologie, Astrophysik, Fusionsforschung, Erforschung von Kernwaffentests bis hin zur Kryptoanalyse.

In Deutschland sind Supercomputer überwiegend an Universitäten und Forschungseinrichtungen wie etwa den Max-Planck-Instituten zu finden. Wegen ihrer Einsatzmöglichkeiten fallen sie unter deutsche Gesetze zur Waffenexportkontrolle.[3]

Geschichte und Aufbau

Die Cray-1 im Deutschen Museum in München

Supercomputer spalteten sich in der Geschichte der Computerentwicklung in den 1960er Jahren von den wissenschaftlichen Rechnern und den Großrechnern ab. Während Großrechner eher auf hohe Zuverlässigkeit hin optimiert wurden, wurden Supercomputer in Richtung hoher Rechenleistung optimiert. Der erste offiziell installierte Supercomputer Cray-1 schaffte 1976 130 MegaFLOPS.

Ursprünglich wurde die herausragende Rechenleistung durch maximale Ausnutzung der verfügbaren Technik erzielt, indem Konstruktionen gewählt wurden, die für größere Serienproduktion zu teuer waren (z. B. Flüssigkeitskühlung, exotische Bauelemente und Materialien, kompakter Aufbau für kurze Signalwege), die Zahl der Prozessoren war eher gering. Seit geraumer Zeit etablieren sich vermehrt sogenannte Cluster, bei denen eine große Anzahl von (meist preiswerten) Einzelrechnern zu einem großen Rechner vernetzt werden. Im Vergleich zu einem Vektorrechner besitzen die Knoten in einem Cluster eigene Peripherie und ausschließlich einen eigenen, lokalen Hauptspeicher. Cluster verwenden Standardkomponenten, deshalb bieten sie zunächst Kostenvorteile gegenüber Vektorrechnern. Sie erfordern aber einen weit höheren Programmieraufwand. Es ist abzuwägen, ob die eingesetzten Programme sich dafür eignen, auf viele Prozessoren verteilt zu werden.

Prozessoren, die von den Top500 Supercomputern genutzt werden (nicht aktuell)[4]
IBM Blue Gene

Moderne Hochleistungsrechner sind vor allem Parallelrechner. Sie bestehen aus einer großen Anzahl an miteinander vernetzten Computern. Zusätzlich verfügt jeder Computer in der Regel über mehrere Hauptprozessoren (CPUs). Auf einem Supercomputer können nicht unmodifiziert die gleichen Programme wie auf einem gewöhnlichen Computer laufen, sondern speziell abgestimmte Programme, die die einzelnen, parallel arbeitenden Prozessoren beschäftigen. Supercomputer sind (wie auch heutzutage jeder handelsübliche Computer im unteren Preissegment) Vektorrechner. Dominierend sind mittlerweile Standardarchitekturen aus dem Bereich von Personalcomputern und Servern, etwa x86-64 von Intel (Xeon) und AMD (Epyc). Sie unterscheiden sich von gewöhnlicher Personalcomputer-Hardware nur geringfügig. Es gibt aber auch immer noch Spezialhardware wie IBM BlueGene/Q und Sparc64.

Die Verbindungen zwischen Einzelcomputern werden bei Supercomputern mit speziellen Hochleistungsnetzwerken umgesetzt, verbreitet ist dabei unter anderem InfiniBand. Computer werden oft mit Beschleunigerkarten ausgestattet, etwa Grafikkarten oder der Intel Xeon Phi. Grafikkarten eignen sich zum Einsatz im High Performance Computing, weil sie exzellente Vektorrecheneinheiten darstellen und Probleme der Linearen Algebra effizient lösen. Die zugehörige Technik nennt sich General Purpose Computation on Graphics Processing Unit (GPGPU).

Bei Clustern werden die einzelnen Computer oft Knoten (englisch nodes) genannt und mittels Clustermanagament-Werkzeugen zentral konfiguriert und überwacht.

Betriebssystem und Programmierung

Betriebssysteme der Top500 Supercomputer. Linux (grün) löste in den 2000er Jahren die zuvor dominanten Unix-Betriebssysteme (hellblau-Töne) ab.[4]

Während noch in den 1990er Jahren diverse Unix-Varianten bei Supercomputern verbreitet waren, hat sich in den 2000er Jahren die Freie Software Linux als Betriebssystem durchgesetzt. In der TOP500-Liste der schnellsten Computersysteme (Stand Juni 2012) werden insgesamt 462 ausschließlich unter Linux betriebene Systeme und 11 teilweise (CNK/SLES 9) unter Linux betriebene Systeme aufgelistet. Damit laufen 92,4 % der Systeme vollständig unter Linux. Fast alle anderen Systeme werden unter Unix oder Unix-artigen Systemen betrieben. Der im Desktop-Bereich größte Konkurrent Windows spielt im Bereich der Höchstleistungsrechner kaum eine Rolle (0,4 %).

Verwendete Programmiersprachen zur Programmierung von Programmen sind vor allem Fortran und C bzw. C++. Um möglichst schnellen Code zu generieren, wird meist auf Compiler der Supercomputer-Hersteller (etwa CRAY oder Intel) zurückgegriffen. Programme im High Performance Computing (HPC) werden typischerweise in zwei Kategorien eingeteilt:

  • Parallelisierung mittels Shared Memory, in der Regel lokal auf einem einzelnen Knoten. Hierzu sind Schnittstellen wie OpenMP oder Threading Building Blocks verbreitet. Ein einzelner Betriebssystemprozess beschäftigt in der Regel alle zur Verfügung stehenden CPU-Kerne bzw. CPUs.
  • Distributed-Memory-Parallelisierung: Ein Betriebssystemprozess läuft auf einem Kern und muss zur gemeinschaftlichen Problemlösung Nachrichten mit anderen Prozessen austauschen (Message passing). Dies geht knotenintern oder über Knotengrenzen hinweg. Das Message Passing Interface ist der Industriestandard, um diese Art Programme zu programmieren.

In der Praxis findet man oft hybride Verfahren als Kombination beider Parallelisierungstechniken. Sie sind deswegen populär, weil Programme oft nicht gut genug skalieren, um alle Kerne eines Supercomputers mit reinem Message Passing auszulasten.

Wenn Supercomputer mit Beschleunigerkarten (Grafikkarten oder Rechenkarten) ausgestattet sind, zergliedert sich die Programmierung nochmals auf die des Hostcomputers und die der Beschleunigerkarte. OpenCL und CUDA sind dabei gängige Schnittstellen, die die Programmierung derartiger Komponenten ermöglichen.

Hochleistungsrechner werden in der Regel nicht von einem einzigen Benutzer bzw. Programm genutzt. Stattdessen werden Job-Scheduler wie Simple Linux Utility for Resource Management (SLURM) oder IBMs LoadLeveler verwendet, um einer großen Anzahl an Benutzern zu ermöglichen, kurzzeitig Teile des Supercomputers zu verwenden. Die Zuteilung erfolgt dabei exklusiv auf Ebene von Knotenzuordnung oder Prozessorzuordnung. Die verbrauchte Prozessorzeit wird dabei in Einheiten wie CPU-Stunden oder Knoten-Stunden gemessen und ggf. abgerechnet.

Einsatzzweck

Die Herstellungskosten eines Supercomputers aus der TOP10 bewegen sich derzeit in einem hohen zweistelligen, oftmals bereits dreistelligen Euro-Millionenbetrag.

Die heutigen Supercomputer werden überwiegend zu Simulationszwecken eingesetzt. Je realitätsnäher eine Simulation komplexer Zusammenhänge wird, desto mehr Rechenleistung wird in der Regel benötigt. Ein Vorteil der Supercomputer ist, dass sie durch ihre extrem schnelle und damit große Rechenleistung immer mehr Interdependenzen berücksichtigen können. Dies erlaubt das Einbeziehen weiterreichender, oftmals auch unscheinbarer Neben- oder Randbedingungen zur eigentlichen Simulation und gewährleistet dadurch ein immer aussagekräftigeres Gesamtergebnis.

Die derzeitigen Haupteinsatzgebiete der Supercomputer umfassen dabei die Bereiche Biologie, Chemie, Geologie, Luft- und Raumfahrt, Medizin, Wettervorhersage, Klimaforschung, Militär und Physik.

Im militärischen Bereich haben Supercomputer es z. B. ermöglicht, neue Atombombenentwicklungen durch Simulation, ohne Stützdaten durch weitere unterirdische Atombombenversuche, durchzuführen. Die Bereiche kennzeichnen sich dadurch, dass es sich um sehr komplexe Systeme bzw. Teilsysteme handelt, die in weitreichendem Maße miteinander verknüpft sind. So haben Veränderungen in dem einen Teilsystem meist mehr oder minder starke Auswirkungen auf benachbarte oder angeschlossene Systeme. Durch den Einsatz von Supercomputern wird es immer leichter möglich, viele solcher Konsequenzen zu berücksichtigen oder sogar zu prognostizieren, wodurch bereits weit im Vorfeld etwaige Gegenmaßnahmen getroffen werden könnten. Dies gilt z. B. bei Simulationen zum Klimawandel, der Vorhersagen von Erdbeben oder Vulkanausbrüchen sowie in der Medizin bei der Simulation neuer Wirkstoffe auf den Organismus. Solche Simulationen sind logischerweise, ganz unabhängig von der Rechenleistung, nur so genau, wie es die programmierten Parameter bzw. Modelle zur Berechnung zulassen. Die enormen Investitionssummen in die stetige Steigerung der FLOPS und damit die Entwicklung von immer schnelleren Supercomputern werden vor allem mit den Nutzenvorteilen und dem eventuellen „Wissensvorsprung“ für die Menschheit gerechtfertigt, weniger aus den Aspekten des allgemeinen technischen Fortschritts.

Situation in Deutschland

TOP500 Supercomputer-Platzierungen nach Ländern (Deutschland, Schweiz, Österreich) im Leistungsvergleich zu den TOP-3 der Welt. (Stand Juni 2013) – Aktuell (Juni 2017) steht der drittschnellste Rechner erstmals in der Schweiz.[5]

Das wissenschaftliche Hochleistungsrechnen ist in Deutschland durch das Gauss Centre for Supercomputing (GCS) organisiert, welches Mitglied im europäischen Partnership for Advanced Computing in Europe (PRACE) ist. Der Verbund für Nationales Hochleistungsrechnen (NHR) stellt Hochleistungsrechenressourcen der mittleren Leistungsklasse (Ebene 2) zur Verfügung. Die Mehrzahl der 16 deutschen Bundesländer unterhalten Landeshochrechnerverbände, um die Nutzung ihrer Hochleistungsrechner zu organisieren. In der Wissenschaftswelt wird in der Regel ein Kontingent an CPU-Stunden ausgeschrieben und unter Bewerbern verteilt.

Ausgewählte Superrechner

Aktuelle Superrechner

Die schnellsten Superrechner nach Leistung werden heutzutage halbjährlich in der TOP500-Liste aufgeführt. Als Bewertungsgrundlage dient der LINPACK-Benchmark. Die schnellsten Superrechner nach Energieeffizienz bzw. MFLOPS/W werden seit November 2007 in der Green500-Liste geführt.[6] Den größten Anteil (117) der Top 500 leistungsstärksten Rechner weltweit konnte 2018 Lenovo installieren.[7]

Diese Green500-Liste vom November 2014 weist länderweise gemittelte Effizienzen von 1895 MFLOPS/W (Italien) bis hinunter zu 168 MFLOPS/W (Malaysia) auf.

Ausgewählte aktuelle Superrechner – weltweit

Stand früher als Juni 2017 (2016?). Jedoch Piz Daint, Schweiz, und Levante, Deutschland, nachgetragen.

NameStandortTeraFLOPSKonfigurationEnergiebedarfZweck
FrontierOak Ridge National Laboratory (Tennessee, USA)1.100.000,008.730.112 Prozessoren: AMD Optimized 3rd Generation EPYC 64C 2GHz, 9 PB RAM21.000 kWWissenschaftliche Anwendungen
FugakuRIKEN Center for Computational Science, Kobe, (Japan)415.530,00152.064 A64FX (48 Kerne, 2,2 GHz),4,85 PB RAM15.000 kWWissenschaftliche Anwendungen
SummitOak Ridge National Laboratory (Tennessee, USA)122.300,00 aufgerüstet auf 148.600,009.216 POWER9 CPUs (22 Kerne, 3,1 GHz), 27,648 Nvidia Tesla V100 GPUs10.096 kWPhysikalische Berechnungen
Sunway TaihuLightNational Supercomputing Center, Wuxi, Jiangsu93.014,6040.960 Sunway SW26010 (260 Kerne, 1,45 GHz), 1,31 PB RAM, 40 Serverschränke mit jeweils 4 × 256 Nodes, insgesamt 10.649.600 Kerne15.370 kWWissenschaftliche und kommerzielle Anwendungen
Sierra[8]Lawrence Livermore National Laboratory (Kalifornien, USA)71.600,00IBM Power9 (22 Kerne, 3,1 GHz) 1,5 PB RAM7.438 kWphysikalische Berechnungen (z. B. Simulation von Kernwaffentests)
Tianhe-2[9]National University for Defense Technology, Changsha, China
finaler Standort: National Supercomputer Center (Guangzhou, Volksrepublik China)
33.862,70 aufgerüstet auf 61.400,0032.000 Intel Xeon E5-2692 CPUs (Ivy Bridge, 12 Kerne, 2,2 GHz) + 48.000 Intel Xeon Phi 31S1P Co-Prozessoren (57 Kerne, 1,1 GHz), 1,4 PB RAM17.808 kWChemische und physikalische Berechnungen (z. B. Untersuchungen von Erdöl und Flugzeugentwicklung)
Hawk[10][11]Höchstleistungsrechenzentrum Stuttgart (Deutschland)26.000,0011.264 AMD EPYC 7742(64 Kerne, 2,25 GHz), 1.44 PB RAM3.500 kWWissenschaftliche und kommerzielle Anwendungen
Piz DaintSwiss National Supercomputing Centre (CSCS) (Schweiz)21.230,00Cray XC50, Xeon E5-2690v3 12C 2,6 GHz, Aries interconnect, NVIDIA Tesla P100, Cray Inc. (361.760 Kerne)2.384 kWwissenschaftliche und kommerzielle Anwendungen
TitanOak Ridge National Laboratory (Tennessee, USA)17.590,00Cray XK7, 18.688 AMD Opteron 6274 CPUs (16 Kerne, 2,20 GHz) + 18.688 Nvidia Tesla K20 GPGPUs, 693,5 TB RAM8.209 kWPhysikalische Berechnungen
Sequoia[12]Lawrence Livermore National Laboratory (Kalifornien, USA)17.173,20IBM BlueGene/Q, 98.304 Power BQC-Prozessoren (16 Kerne, 1,60 GHz), 1,6 PB RAM7.890 kWSimulation von Kernwaffentests
LEVANTE[13]Deutsches Klimarechenzentrum Hamburg (Deutschland)14.000,00
(CPU-Partition)
2.800,00
(GPU-Partition)
Atos BullSequana XH2000 mit insgesamt 370.000 Prozessorkernen; CPU-Partition: 2832 Nodes mit je 2 CPUs vom Typ AMD 7763; GPU-Partition: 60 Nodes mit je 2 CPUs vom Typ AMD 7713 und je 4 GPUs vom Typ Nvidia A1002.000 kWErdsystemforschung
K computerAdvanced Institute for Computational Science (Japan)10.510,0088.128 SPARC64-VIII 8-Core-Prozessoren (2,00 GHz), 1.377 TB RAM12.660 kWChemische und physikalische Berechnungen
MiraArgonne National Laboratory (Illinois, USA)8.586,6IBM BlueGene/Q, 49.152 Power BQC-Prozessoren (16 Kerne, 1,60 GHz), 768 TB RAM3.945 kWEntwicklung neuer Energiequellen, Technologien und Materialien, Bioinformatik
JUQUEEN[14]Forschungszentrum Jülich (Deutschland)5.008,9IBM BlueGene/Q, 28.672 Power BQC-Prozessoren (16 Kerne, 1,60 GHz), 448 TB RAM2.301 kWMaterialwissenschaften, theoretische Chemie, Elementarteilchenphysik, Umwelt, Astrophysik
Phase 1 – Cray XC30[15]Europäisches Zentrum für mittelfristige Wettervorhersage (Reading, England)3.593,007.010 Intel E5-2697v2 „Ivy Bridge“ (12 Kerne, 2,7 GHz)
SuperMUC IBM[16][17]Leibniz-Rechenzentrum (LRZ) (Garching bei München, Deutschland)2.897,0018.432 Xeon E5-2680 CPUs (8 Kerne, 2,7 GHz) + 820 Xeon E7-4870 CPUs (10 Kerne, 2,4 GHz), 340 TB RAM3.423 kWKosmologie über die Entstehung des Universums, Seismologie/Erdbebenvorhersage, uvm.
StampedeTexas Advanced Computing Center (Texas, USA)5.168,10Xeon E5-2680 CPUs (8 Kerne, 2,7 GHz) + Xeon E7-4870 CPUs, 185 TB RAM4.510 kWChemische und physikalische, biologische (z. B. Proteinstrukturanalyse), geologische (z. B. Erdbebenvorhersage), medizinische Berechnungen (z. B. Krebswachstum)
Tianhe-1ANational Supercomputer Center (Tianjin, Volksrepublik China)2.266,0014.336 Intel 6-Core-Xeon X5670 CPUs (2,93 GHz) + 7.168 Nvidia Tesla M2050 GPGPUs, 224 TB RAM4.040 kWChemische und physikalische Berechnungen (z. B. Untersuchungen von Erdöl und Flugzeugentwicklung)
Dawning NebulaeNational Supercomputing Center (Shenzhen, Volksrepublik China)1.271,00Hybridsystem aus 55.680 Intel Xeon-Prozessoren (2,66 GHz) + 64.960 Nvidia Tesla GPGPU (1,15 GHz), 224 TB RAM2.580 kWMeteorologie, Finanzwirtschaft u. a.
IBM RoadrunnerLos Alamos National Laboratory (New Mexico, USA)1.105,006.000 AMD Dual-Core-Prozessoren (3,2 GHz), 13.000 IBM Cell-Prozessoren (1,8 GHz), 103 TB RAM4.040 kWPhysikalische Simulationen (z. B. Atomwaffensimulationen)
N. n.Universität Bielefeld (Deutschland)529,70208x Nvidia Tesla M2075-GPGPUs + 192x Nvidia GTX-580-GPUs + 152x Dual Quadcore Intel Xeon 5600 CPUs, 9,1 TB RAMFakultät für Physik: Numerische Simulationen, physikalische Berechnungen[18][19]
SGI AltixNASA (USA)487,0051.200 4-Core-Xeon, 3 GHz, 274,5 TB RAM3.897 kWWeltraumforschung
BlueGene/LLawrence Livermore National Laboratory Livermore (USA)478,20212.992 PowerPC 440 Prozessoren 700 MHz, 73.728 GB RAM924 kWPhysikalische Simulationen
Blue Gene WatsonIBM Thomas J. Watson Research Center (USA)91,2940.960 PowerPC 440 Prozessoren, 10.240 GB RAM448 kWForschungsabteilung von IBM, aber auch Anwendungen aus Wissenschaft und Wirtschaft
ASC PurpleLawrence Livermore National Laboratory Livermore (USA)75,7612.208 Power5 CPUs, 48.832 GB RAM7.500 kWPhysikalische Simulationen (z. B. Atomwaffensimulationen)
MareNostrumUniversitat Politècnica de Catalunya (Spanien)63,810.240 PowerPC 970MP 2,3 GHz, 20,4 TB RAM1.015 kWKlima- und Genforschung, Pharmazie
ColumbiaNASA Ames Research Center (Silicon Valley, Kalifornien, USA)51,8710.160 Intel Itanium 2 Prozessoren (Madison Kern), 9 TB RAMKlimamodellierung, astrophysikalische Simulationen

Ausgewählte aktuelle Superrechner – Deutschland

NameStandortTeraFLOPS (peak)KonfigurationTB RAMEnergiebedarfZweck
Hawk[10][11]Höchstleistungsrechenzentrum Stuttgart (Deutschland)26.000,0011.264 AMD EPYC 7742(64 Kerne, 2,25 GHz), 1.44 PB RAM14403.500 kWWissenschaftliche und kommerzielle Anwendungen
LEVANTE[20]Deutsches Klimarechenzentrum Hamburg14.000,00
(CPU-Partition)
2.800,00
(GPU-Partition)
Atos BullSequana XH2000 mit insgesamt 370.000 Prozessorkernen; CPU-Partition: 2832 Nodes mit je 2 CPUs vom Typ AMD 7763; GPU-Partition: 60 Nodes mit je 2 CPUs vom Typ AMD 7713 und je 4 GPUs vom Typ Nvidia A100815
(CPU-Partition)
30
(GPU-Partition)
2.000 kWErdsystemforschung
JUWELS[21]Forschungszentrum Jülich9.891,072511 Nodes mit je 4 Dual Intel Xeon Platinum 8168 (mit je 24 Kernen, 2,70 GHz), 64 Nodes mit je 6 Dual Intel Xeon Gold 6148 (mit je 20 Kernen, 2,40 GHz)2581.361 kW
JUQUEEN[14]Forschungszentrum Jülich (Deutschland)5.900,00IBM BlueGene/Q, 28.672 Power BQC-Prozessoren (16 Kerne, 1,60 GHz)4482.301 kWMaterialwissenschaften, theoretische Chemie, Elementarteilchenphysik, Umwelt, Astrophysik
SuperMUC IBM[16][22]Leibniz-Rechenzentrum (LRZ) (Garching bei München, Deutschland)2.897,0018.432 Xeon E5-2680 CPUs (8 Kerne, 2,7 GHz), 820 Xeon E7-4870 CPUs (10 Kerne, 2,4 GHz)3403.423 kWKosmologie über die Entstehung des Universums, Seismologie und Erdbebenvorhersage
HLRN-III[23] (Cray XC40)Zuse-Institut Berlin, Regionales Rechenzentrum für Niedersachsen2.685,6042.624 Cores Intel Xeon Haswell @2,5 GHz und IvyBridge @ 2,4 GHz222500 – 1.000 kWPhysik, Chemie, Umwelt- und Meeresforschung, Ingenieurwissenschaften
HRSK-II[24][25]Zentrum für Informationsdienste und Hochleistungsrechnen, TU Dresden1.600,0043.866 CPU-Kerne, Intel Haswell-EP-CPUs (Xeon E5 2680v3), 216 Nvidia Tesla-GPUs130Wissenschaftliche Anwendungen
HLRE-3 „Mistral“[26][27]Deutsches Klimarechenzentrum Hamburg1.400,001.550 Knoten à 2 Intel Haswell-EP-CPUs (Xeon E5-2680v3) (12 Kerne 2,5 GHz), 1750 Knoten à 2 Intel Broadwell-EP-CPUs (Xeon E5-2695V4) (18 Kerne 2,1 GHz), 100.000 Kerne, 54 PB Lustre-Festplattensystem, 21 Visualisierungsknoten (á 2 Nvidia Tesla K80 GPUs) oder (á 2 Nvidia GeForce GTX 9xx)120Klimamodellierung
Cray XC40Deutscher Wetterdienst (Offenbach)1.100,00Cray Aries Netzwerk; 1.952 CPUs Intel Xeon E5-2680v3/E5-2695v4122407 kWNumerische Wettervorhersage und Klimasimulationen
Lichtenberg-Hochleistungsrechner[28]Technische Universität Darmstadt951.34Phase 1: 704 Knoten à 2 Intel Xeon (8 Cores), 4 Knoten à 8 Intel Xeon (8 Cores), 70 Knoten à 2 Intel Xeon.

Phase 2: 596 Knoten à 2 Intel Xeon (12 Cores), 4 Knoten à 4 Intel Xeon (15 Cores), 32 Knoten à 2 Intel Xeon.

76Wissenschaftliche Anwendungen
CARL und EDDY[29][30]Carl von Ossietzky Universität Oldenburg457,2Lenovo NeXtScale nx360M5, 12.960 Cores (Intel Xeon E5-2650v4 12C 2,2 GHz), Infiniband FDR80180 kWTheoretische Chemie, Windenergieforschung, Theoretischer Physik, Neurowissenschaften und Hörforschung, Meeresforschung, Biodiversität und Informatik
HPC Compute Cluster 2019[31]Technische Universität Bergakademie Freiberg307,2 (Standard) bzw. 377,3 (mit Double Precision)Megware Knoten (96-mal): 192 Intel Xeon Gold 6248 Prozessoren; 3840 Kerne; 18 TB DDR4 Main Memory

Shared Memory Knoten (17-mal): 4 Dual Socket Intel Xeon Gold 6248; 3 Quad Socket Intel Xeon Gold 5218; 10 Dual Socket Intel Xeon Gold 6244 (2020 erweitert); 512 Kerne; 17,7 TB DDR4 Main Memory

Megware GPU-Knoten (3-mal): 3 NVIDIA Quadro RTX 5000 GPUs; 6 Intel Xeon Gold 6248 Prozessoren, 120 CPU-Kerne; 576 GB DDR4 Hauptspeicher

Zentraler Speicher: 246 TB

36,3wissenschaftliche Anwendungen (Ingenieurwissenschaften, Quantenchemie, Strömungsmechanik, Geophysik)
MogonJohannes Gutenberg-Universität Mainz283,9033.792 Opteron 627284467 kWNaturwissenschaften, Physik, Mathematik, Biologie, Medizin
OCuLUS[32]Paderborn Center for Parallel Computing, Universität Paderborn200,00614 Knoten Dual Intel E5-2670 (9856 Cores) und 64 GB RAM45Ingenieurwissenschaften, Naturwissenschaften
HLRE 2[27]Deutsches Klimarechenzentrum Hamburg144,008064 IBM Power6 Dual Core CPUs, 6 Petabyte Disk20Klimamodellierung
Komplex MPI 2RWTH Aachen103,60176 Knoten mit insgesamt 1.408 Intel Xeon 2,3 GHz 8-Core-Prozessoren22Wissenschaftliche Anwendungen
HPC-FFForschungszentrum Jülich101,002160 Intel Core i7 (Nehalem-EP) 4-Core, 2,93 GHz Prozessoren24europäische Fusionsforschung
HLRB IILRZ Garching56,529.728 CPUs 1,6 GHz Intel Itanium 2 (Montecito Dual Core)39Naturwissenschaften, Astrophysik und Materialforschung
ClusterVision HPC[33]Technische Universität Bergakademie Freiberg22,611728 Cores Intel Xeon X5670 (2,93 GHz) + 280 Cores AMD Opteron 6276, (2,3 GHz)0,5Ingenieurwissenschaften, Quantenchemie, Strömungsmechanik, Geophysik (abgebaut und ersetzt)
CHiC[34] Cluster (IBM x3455)TU Chemnitz8,212152 Cores aus 1076 Dual Core 64 bit AMD Opteron 2218 (2,6 GHz)Modellierung und numerische Simulationen (abgebaut)

Ausgewählte aktuelle Superrechner – Österreich

In der Liste der 500 schnellsten Supercomputer der Welt befand sich Stand Juni 2024 der schnellste Rechner aus Österreich auf Rang 353.

NameStandortTeraFLOPS (peak)KonfigurationTB RAMEnergiebedarfZweck
VSC-4 (Stand Juni 2024)Vienna Scientific Cluster2726,08ThinkSystem SD650, Xeon Platinum 8174 24C 3.1GHz, Intel Omni-Path (37.920 Kerne)
VSC-5 (Stand Juni 2024)Vienna Scientific Cluster2312,30MEGWARE SLIDESX, AMD EPYC 7713 64C 2GHz, Infiniband (95.232 Kerne)
VSC-3 (Stand Juni 2017)Vienna Scientific Cluster596,01Oil blade server, Intel Xeon E5-2650v2 8C 2,6 GHz, Intel TrueScale Infiniband; ClusterVision (32.768 Kerne)450 kW
Cluster Platform DL360 (Stand Juni 2017)Hosting Company572,60Cluster Platform DL360, Xeon E5-2673v4 20C 2,3 GHz, 10G Ethernet; HPE (26.880 Kerne)529 kW
Cluster Platform DL360 (Stand Juni 2017)Hosting Company527,20Cluster Platform DL360, Xeon E5-2673v3 12C 2,4 GHz, 10G Ethernet;HPE (20.352 Kerne)678 kW

Ausgewählte aktuelle Superrechner – Schweiz

Der im Spätsommer 2024 in Betrieb genommene „Alps“ befindet sich auf Rang 6 In der Liste der 500 schnellsten Supercomputer der Welt. Piz Daint nahm darin Rang 43 ein (Stand Juni 2024).

NameStandortTeraFLOPS (peak)KonfigurationTB RAMEnergiebedarfZweck
Alps (Stand Juni 2024)Swiss National Supercomputing Centre (CSCS)270.000,00HPE Cray EX254n, NVIDIA Grace 72C 3,1 GHz, NVIDIA GH200 Superchip, Slingshot-11 (1.305.600 Kerne)5.194 kWForschung, KI-Anwendungen, Start-ups
Piz Daint (Upgrade 2018, Stand Juni 2024)Swiss National Supercomputing Centre (CSCS)21.230,00

Cray XC50, Xeon E5-2690v3 12C 2,6 GHz, Aries interconnect, NVIDIA Tesla P100 (387.872 Kerne)

2.272 kW
preAlps (Stand Juni 2024)Swiss National Supercomputing Centre (CSCS)15.470,00HPE Cray EX254n, NVIDIA Grace 72C 3.1GHz, NVIDIA GH200 Superchip, Slingshot-11 (81.600 Kerne)519 kW
Alps (Stand Juni 2024)Swiss National Supercomputing Centre (CSCS)3.088,60HPE Cray EX, AMD EPYC 7742 64C 2.25GHz, Slingshot-10 (128.000 Kerne)638 kW
Piz Daint Multicore (Stand Juni 2024)Swiss National Supercomputing Centre (CSCS)1.896,75Cray XC40, Xeon E5-2695v4 18C 2,1 GHz, Aries interconnect, Cray Inc. (65.268 Kerne)519 kW
EPFL Blue Brain IV (Stand Juni 2024)Swiss National Supercomputing Centre (CSCS)715,55BlueGene/Q, Power BQC 16C 1,6 GHz, Custom Interconnect; IBM (65.536 Kerne)329 kW
A17A (Stand Juni 2024)MSW, Rümlang691,20ThinkSystem C0366, Xeon Gold 6252 24C 2,1 GHz, 100G Ethernet; Lenovo (69.120 Kerne)Kommerziell

Die geschichtlich Schnellsten ihrer Zeit

Nachfolgende Tabelle (Stand Juni 2022) listet einige der schnellsten Superrechner ihrer jeweiligen Zeit auf:

JahrSupercomputerSpitzengeschwindigkeit
bis 1959 in Operationen pro Sekunde (OPS)
ab 1960 in FLOPS
Ort
1906Babbage Analytical Engine, Mill0,3RW Munro, Woodford Green, Essex, England
1928IBM 301[35]1,7verschiedene Orte weltweit
1931IBM Columbia Difference Tabulator[36]2,5Columbia University
1940Zuse Z23,0Berlin, Deutschland
1941Zuse Z35,3Berlin, Deutschland
1942Atanasoff-Berry Computer (ABC)30,0Iowa State University, Ames (Iowa), USA
TRE Heath Robinson200,0Bletchley Park, Milton Keynes, England
1.000,0entspricht 1 kilo-OPS
1943Flowers Colossus5.000,0Bletchley Park, Milton Keynes, England
1946UPenn ENIAC
(vor den Modifikationen von 1948+)
50.000,0Aberdeen Proving Ground, Maryland, USA
1954IBM NORC67.000,0U.S. Naval Proving Ground, Dahlgren, Virginia, USA
1956MIT TX-083.000,0Massachusetts Inst. of Technology, Lexington, Massachusetts, USA
1958IBM SAGE400.000,025 Stützpunkte der U.S. Air Force in den USA und ein Ort in Kanada (52 Computer)
1960UNIVAC LARC500.000,0Lawrence Livermore National Laboratory, Kalifornien, USA
1.000.000,0entspricht 1 MFLOPS, 1 Mega-FLOPS
1961IBM 7030 „Stretch“1.200.000,0Los Alamos National Laboratory, New Mexico, USA
1964CDC 66003.000.000,0Lawrence Livermore National Laboratory, Kalifornien, USA
1969CDC 760036.000.000,0
1974CDC STAR-100100.000.000,0
1975Burroughs ILLIAC IV150.000.000,0NASA Ames Research Center, Kalifornien, USA
1976Cray-1250.000.000,0Los Alamos National Laboratory, New Mexico, USA (weltweit über 80 Mal verkauft)
1981CDC Cyber 205400.000.000,0verschiedene Orte weltweit
1983Cray X-MP/4941.000.000,0Los Alamos National Laboratory; Lawrence Livermore National Laboratory; Battelle; Boeing
1.000.000.000,0entspricht 1 GFLOPS, 1 Giga-FLOPS
1984M-132.400.000.000,0Scientific Research Institute of Computer Complexes, Moskau, UdSSR
1985Cray-2/83.900.000.000,0Lawrence Livermore National Laboratory, Kalifornien, USA
1989ETA10-G/810.300.000.000,0Florida State University, Florida, USA
1990NEC SX-3/44R23.200.000.000,0NEC Fuchu Plant, Fuchū, Japan
1993Thinking Machines CM-5/102465.500.000.000,0Los Alamos National Laboratory; National Security Agency
Fujitsu Numerical Wind Tunnel124.500.000.000,0National Aerospace Laboratory, Tokio, Japan
Intel Paragon XP/S 140143.400.000.000,0Sandia National Laboratories, New Mexico, USA
1994Fujitsu Numerical Wind Tunnel170.400.000.000,0National Aerospace Laboratory, Tokio, Japan
1996Hitachi SR2201/1024220.400.000.000,0Universität Tokio, Japan
1996Hitachi/Tsukuba CP-PACS/2048368.200.000.000,0Center for Computational Physics, University of Tsukuba, Tsukuba, Japan
1.000.000.000.000,0entspricht 1 TFLOPS, 1 Tera-FLOPS
1997Intel ASCI Red/91521.338.000.000.000,0Sandia National Laboratories, New Mexico, USA
1999Intel ASCI Red/96322.379.600.000.000,0
2000IBM ASCI White7.226.000.000.000,0Lawrence Livermore National Laboratory, Kalifornien, USA
2002NEC Earth Simulator35.860.000.000.000,0Earth Simulator Center, Yokohama-shi, Japan
2004SGI Project Columbia42.700.000.000.000,0Project Columbia, NASA Advanced Supercomputing Facility, USA
IBM BlueGene/L70.720.000.000.000,0U.S. Department of Energy/IBM, USA
2005IBM BlueGene/L136.800.000.000.000,0U.S. Department of Energy/U.S. National Nuclear Security Administration,
Lawrence Livermore National Laboratory, Kalifornien, USA
1.000.000.000.000.000,0entspricht 1 PFLOPS, 1 Peta-FLOPS
2008IBM Roadrunner1.105.000.000.000.000,0U.S. Department of Energy/U.S. National Nuclear Security Administration,
Los Alamos National Laboratory
2010Tianhe-1A2.507.000.000.000.000,0National Supercomputer Center in Tianjin, China
2011K computer10.510.000.000.000.000,0Advanced Institute for Computational Science, Japan
2012Sequoia16.324.750.000.000.000,0Lawrence Livermore National Laboratory, Kalifornien, USA
2012Titan17.590.000.000.000.000,0Oak Ridge National Laboratory, Tennessee, USA
2013Tianhe-233.863.000.000.000.000,0National Supercomputer Center in Guangzhou, China
2016Sunway TaihuLight[37]93.000.000.000.000.000,0National Supercomputing Center, Wuxi, China
2018Summit[38]200.000.000.000.000.000,0Oak Ridge National Laboratory, Tennessee, USA
1.000.000.000.000.000.000,0entspricht 1 EFLOPS, 1 Exa-FLOPS
2022Frontier[39]1.100.000.000.000.000.000,0Oak Ridge National Laboratory, Tennessee, USA
2023Tesla Dojo13.000.000.000.000.000.000,0USA, San José in Kalifornien, der Elektroautofirma Tesla - geplant ist eine Erweiterung auf 100 EFLOPS bis Ende 2024
ZukunftTianhe-3[40]1.000.000.000.000.000.000,0China, Nationales Zentrum für Supercomputer – Baustart Feb. 2017, Fertigstellung des Prototyps für Anfang 2018 angekündigt
El Capitan[41]2.000.000.000.000.000.000,0USA, DOE’s Lawrence Livermore National Laboratory (LLNL) - Fertigstellung 2023 angekündigt

Trägt man die FLOPS der schnellsten Computer ihrer Zeit gegen die Zeit auf, erhält man eine exponentielle Kurve, logarithmisch in etwa ein Gerade, wie im folgenden Graph dargestellt.

Graph zur Rechengeschwindigkeit von Supercomputern, logarithmisch, mit annähernder Moore-Kurve (Stand 2022)

Siehe auch

TOP500 Liste der 500 schnellsten Supercomputer

Zukünftige Entwicklung von Supercomputern

USA

Mit einer Executive Order hatte US-Präsident Barack Obama die US-Bundesbehörden angewiesen, die Entwicklung eines ExaFlops-Supercomputers voranzutreiben.[42][43] Im Jahr 2018 sollte Intels Aurora-Supercomputer eine Rechenleistung von 180 PetaFlops erreichen.[44] Im Jahr 2021 wollte das DOE einen ersten Exascale-Supercomputer aufstellen und 9 Monate später in Betrieb nehmen.[45]

China

China wollte bis 2020 einen Supercomputer mit einer Geschwindigkeit im Exaflops-Bereich entwickeln.[46] Der Prototyp von „Tianhe-3“ sollte bis Anfang 2018 fertig sein, berichtete „China Daily“ am 20. Februar 2017.[40] Im Mai 2018 wurde er vorgestellt.[47]

Europa

2011 starteten in der EU zahlreiche Projekte mit dem Ziel Software für Exascale-Supercomputer zu entwickeln. Das CRESTA-Projekt (Collaborative Research into Exascale Systemware, Tools and Applications),[48] das DEEP-Projekt (Dynamical ExaScale Entry Platform),[49][50] und das Projekt Mont-Blanc.[51] Das MaX (Materials at the Exascale) ist als weiteres wichtiges Projekt zu nennen.[52] Im März 2015 startete das SERT-Projekt unter Beteiligung der Universität von Manchester und der STFC in Cheshire.[53]

Siehe auch: Europäisches Hochleistungsrechnen.

Japan

In Japan begann 2013 das RIKEN die Planung eines Exascale-Systems für 2020 mit einem elektrischen Leistungsbedarf von weniger als 30 MW.[54] 2014 wurde Fujitsu beauftragt, die nächste Generation des K computer zu entwickeln.[55] 2015 verkündete Fujitsu auf der International Supercomputing Conference, dass dieser Supercomputer Prozessoren der ARMv8-Architektur verwenden werde.[56]

Sonstige Leistungen

Meilensteine

  • 1997: Deep Blue 2 (Hochleistungsrechner von IBM) schlägt als erster Computer einen Schachweltmeister in einem offiziellen Zweikampf.
  • 2002: Yasumasa Kanada bestimmt die Kreiszahl Pi mit einem Hitachi SR8000 der Universität Tokio auf 1,24 Billionen Stellen genau.
  • 2007: Intels Desktopprozessor Core 2 Quad Q6600 schafft ca. 38,40 GFLOPS und hat damit Supercomputerniveau der frühen 1990er Jahre.[57]
  • 2014: NVIDIAs GPU-Prozessor Tesla K80 erzielt eine Leistung von ca. 8,7 TeraFLOPS und hat damit das Supercomputerniveau der frühen 2000er Jahre. Er schlägt somit den Supercomputer des Jahres 2000, den IBM ASCI White, welcher damals eine Leistung von 7,226 TeraFLOPS bot.[58]
  • 2020: Xbox Series X erzielt eine Leistung von 12 TFLOPS.[59]

Vergleiche

  • Die über 500.000 aktiven Rechner der Berkeley Open Infrastructure for Network Computing (kurz BOINC) erbringen derzeit (Stand: Januar 2020) eine Spitzenrechenleistung von ca. 26 PetaFLOPS, die je nach Tag schwanken kann.[60][61]
  • Die über 380.000 aktiven Rechner des Projektes Folding@home erbrachten im März 2020 eine Rechenleistung von über 1 ExaFLOPS.[62][63] Damit wird das Volunteer-Verteilte System das erste Computing-System das ein ExaFLOPS erreicht.[64][65][66] Das System simulierte Proteinfaltung für Forschungen zu COVID-19 und erreichte am 13. April eine Geschwindigkeit von ca. 2.43 x86-ExaFLOPS − einige Male schneller als der vorherige Rekordhalter, Supercomputer Summit.[67]
  • Sämtliche Berechnungen aller Computer weltweit von 1960 bis 1970 könnte der Earth Simulator in etwa 35 Minuten durchführen.
  • Mit seiner Performance könnte der K computer die Meter eines Lichtjahres binnen etwa einer Sekunde „zählen“.
  • Hans Moravec bezifferte die Rechenleistung des Gehirns auf 100 Teraflops, Raymond Kurzweil auf 10.000 Teraflops. Diese Rechenleistung haben Supercomputer bereits deutlich überschritten. Zum Vergleich liegt eine Grafikkarte für 800 Euro (11/2020) bei einer Leistung von etwa 30 Teraflops.[68] (s. technologische Singularität)

Korrelatoren im Vergleich

Korrelatoren sind spezielle Geräte in der Radiointerferometrie deren Leistung man ebenfalls in Einheiten von FLOPS messen kann. Sie fallen nicht unter die Kategorie der Supercomputer, weil es sich um Spezialcomputer handelt, mit denen sich nicht jede Art von Problemen lösen lässt.

Literatur

  • Werner Gans: Supercomputing: Rekorde; Innovation; Perspektive. Hrsg.: Christoph Pöppe (= Spektrum der Wissenschaft / Dossier. Nr. 2). Spektrum-der-Wissenschaft-Verl.-Ges., Heidelberg 2007, ISBN 978-3-938639-52-8.
  • Shlomi Dolev: Optical supercomputing. Springer, Berlin 2008, ISBN 3-540-85672-2.
  • William J. Kaufmann, et al.: Supercomputing and the transformation of science. Scientific American Lib., New York 1993, ISBN 0-7167-5038-4.
  • Paul B. Schneck: Supercomputer architecture. Kluwer, Boston 1987, ISBN 0-89838-238-6.
  • Aad J. van der Steen: Evaluating supercomputers – strategies for exploiting, evaluating and benchmarking computers with advanced architectures. Chapman and Hall, London 1990, ISBN 0-412-37860-4.
Wiktionary: Supercomputer – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
Commons: Supercomputers – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

  1. Mario Golling, Michael Kretzschmar: Entwicklung einer Architektur für das Accounting in dynamischen Virtuellen Organisationen. ISBN 978-3-7357-8767-5.
  2. Martin Kleppmann: Datenintensive Anwendungen designen: Konzepte für zuverlässige, skalierbare und wartbare Systeme. O’Reilly, ISBN 978-3-96010-183-3.
  3. Am Beispiel des SuperMUC: Supercomputer und Exportkontrolle. Hinweise zu internationalen wissenschaftlichen Kooperationen. (PDF; 293 kB) BMBF, abgerufen am 14. Juni 2018.
  4. a b List Statistics
  5. China verteidigt Spitzenposition orf.at, 19. Juni 2017, abgerufen am 19. Juni 2017.
  6. The Green 500 List (Memento vom 26. August 2016 im Internet Archive)
  7. Lenovo größter Anbieter Top500 Computer Business Wire 26.6.2018
  8. USA haben wieder stärksten Supercomputer orf.at, 24. Juni 2018, abgerufen am 24. Juni 2018.
  9. Jack Dongarra: Trip Report to China and Tianhe-2 Supercomputer, 3. Juni 2013 (PDF; 8,2 MB)
  10. a b Next-Generation HPC System @ HLRS (Memento vom 20. Februar 2020 im Internet Archive)
  11. a b https://www.uni-stuttgart.de/en/university/news/press-release/Hawk-Supercomputer-Inaugurated/
  12. asc.llnl.gov (Memento desOriginals vom 4. Mai 2012 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/asc.llnl.gov ASC Sequoia
  13. HLRE-4 Levante. Deutsches Klimarechenzentrum, abgerufen am 22. September 2022.
  14. a b JUQUEEN Forschungszentrum Jülich
  15. Supercomputer. ECMWF, 2013, abgerufen am 14. Juni 2018 (englisch).
  16. a b Supercomputer: USA holen Spitzenposition zurück. Heise Online, 18. Juni 2012
  17. SuperMUC Petascale System. lrz.de
  18. Technische Daten
  19. sysGen-Projektreferenz (PDF; 291 kB) Universität Bielefeld, Fakultät für Physik
  20. HLRE-4 Levante. Deutsches Klimarechenzentrum, abgerufen am 23. September 2022.
  21. JUWELS - Configuration. Forschungszentrum Jülich, abgerufen am 28. Juni 2018 (englisch).
  22. LRZ: SuperMUC Nr. 4 der Top500-Liste (Memento desOriginals vom 20. August 2012 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.lrz.de
  23. HLRN
  24. Andreas Stiller: Supercomputer an der TU-Dresden nimmt offiziell den Betrieb auf. In: Heise online. 13. März 2015, abgerufen am 14. Juni 2018.
  25. Andreas Stiller: Neuer Petaflops-Rechner an der TU Dresden. In: c’t. 29. Mai 2015, abgerufen am 14. Juni 2018.
  26. HLRE-3 "Mistral". DKRZ, archiviert vom Original (nicht mehr online verfügbar) am 12. Oktober 2016; abgerufen am 14. Juni 2018.
  27. a b Rechnerhistorie am DKRZ. DKRZ, abgerufen am 14. Juni 2018.
  28. Lichtenberg Hochleistungsrechner. HHLR, abgerufen am 4. August 2016.
  29. HPC-Systeme an der Universität Oldenburg
  30. Oldenburger Universitätsrechner zählen zu den schnellsten weltweit
  31. Compute Cluster 2019 – Universitätsrechenzentrum. 1. September 2023, abgerufen am 12. November 2023 (deutsch).
  32. OCuLUS
  33. ClusterVision HPC (Memento vom 23. Februar 2015 im Internet Archive)
  34. CHiC (Memento vom 9. Februar 2007 im Internet Archive)
  35. IBM 301 Accounting Machine
  36. The Columbia Difference Tabulator – 1931
  37. Andreas Stiller: Supercomputer: China überholt die USA. In: Heise online. 20. Juni 2016, abgerufen am 14. Juni 2018.
  38. ORNL Launches Summit Supercomputer. Oak Ridge National Laboratory, 8. Juni 2018, abgerufen am 14. Juni 2018 (englisch).
  39. Marc Sauter: Hewlett Packard Enterprise ushers in new era with world’s first and fastest exascale supercomputer “Frontier” for the U.S. Department of Energy’s Oak Ridge National Laboratory. In: hpe.com. 30. Mai 2022, abgerufen am 9. September 2022.
  40. a b China startete Bau von neuem Supercomputer orf.at, 20. Februar 2017, abgerufen am 20. Februar 2017.
  41. HPE and AMD power complex scientific discovery in world’s fastest supercomputer for U.S. Department of Energy’s (DOE) National Nuclear Security Administration (NNSA). 4. März 2020, abgerufen am 6. März 2020 (englisch).
  42. The White House: CREATING A NATIONAL STRATEGIC COMPUTING Abgerufen: Januar 2017
  43. golem.de: Wie die Exaflop Marke geknackt werden soll Abgerufen: Januar 2017
  44. Aurora Supercomputer. top500.org, 2016, abgerufen am 13. Januar 2017.
  45. First US Exascale Supercomputer Now On Track for 2021. top500.org, 10. Dezember 2016, abgerufen am 13. Januar 2017.
  46. China Research: Exascale Supercomputer Abgerufen: Januar 2017
  47. http://german.xinhuanet.com/2018-05/18/c_137187901.htm
  48. Europe Gears Up for the Exascale Software Challenge with the 8.3M Euro CRESTA project. Project consortium, 14. November 2011, archiviert vom Original am 19. Dezember 2011; abgerufen am 10. Dezember 2011.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.cresta-project.eu
  49. Booster for Next-Generation Supercomputers Kick-off for the European exascale project DEEP. FZ Jülich, 15. November 2011, abgerufen am 13. Januar 2017.
  50. Supercomputer mit Turbolader. FZ Jülich, 5. November 2016, abgerufen am 13. Januar 2017.
  51. Mont-Blanc project sets Exascale aims. Project consortium, 31. Oktober 2011, abgerufen am 10. Dezember 2011.
  52. MaX website. project consortium, 25. November 2016, abgerufen am 25. November 2016.
  53. Developing Simulation Software to Combat Humanity’s Biggest Issues. Scientific Computing, 25. Februar 2015, abgerufen am 8. April 2015.
  54. Patrick Thibodeau: Why the U.S. may lose the race to exascale. In: Computerworld. 22. November 2013 (computerworld.com (Memento desOriginals vom 3. September 2014 im Internet Archive) [abgerufen am 13. Januar 2017]).  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.computerworld.com
  55. RIKEN selects contractor for basic design of post-K supercomputer. In: www.aics.riken.jp. 1. Oktober 2014, archiviert vom Original am 13. Januar 2017; abgerufen am 13. Januar 2017.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.aics.riken.jp
  56. Fujitsu picks 64-bit ARM for Japan's monster 1,000-PFLOPS super. In: www.theregister.co.uk. 20. Juni 2016;.
  57. intel.com
  58. Michael Günsch: Tesla K80: Dual-Kepler mit bis zu 8,7 TFLOPS für Superrechner. In: ComputerBase. 17. November 2014, abgerufen am 14. Juni 2018.
  59. XBOX SERIES X. In: Microsoft. 2021, abgerufen am 16. Mai 2021.
  60. Host-Übersicht auf boincstats.com
  61. Übersicht BOINC-Leistung auf boincstats.com
  62. Folding@home stats report. Abgerufen am 26. März 2020 (englisch).
  63. Thanks to our AMAZING community, we’ve crossed the exaFLOP barrier! That’s over a 1,000,000,000,000,000,000 operations per second, making us ~10x faster than the IBM Summit! In: Twitter. 25. März 2020, abgerufen am 26. März 2020 (englisch). Korrekt wäre FLOPS [sic!].
  64. Folding@Home Crushes Exascale Barrier, Now Faster Than Dozens of Supercomputers - ExtremeTech In: extremetech.com. Abgerufen am 13. Mai 2020 (englisch). 
  65. Folding@home crowdsourced computing project passes 1 million downloads amid coronavirus research In: VentureBeat, 31. März 2020. Abgerufen am 13. Mai 2020 (englisch). 
  66. The coronavirus pandemic turned Folding@Home into an exaFLOP supercomputer In: Ars Technica, 14. April 2020. Abgerufen am 13. Mai 2020 (amerikanisches Englisch).  Korrekt wäre FLOPS [sic!].
  67. Liam Tung: CERN throws 10,000 CPU cores at Folding@home coronavirus simulation project In: ZDNet. Abgerufen am 13. Mai 2020 (englisch). 
  68. Genug Power für 4K-Gaming. In: heise.de. Abgerufen am 6. November 2020.
  69. Powerful Supercomputer Makes ALMA a Telescope
  70. Höchstgelegener Supercomputer der Welt gleicht Astronomiedaten ab. Heise online
  71. a b Cross-Correlators & New Correlators – Implementation & choice of architecture. (PDF; 9,4 MB) National Radio Astronomy Observatory, S. 27
  72. The Expanded Very Large Array Project – The ‚WIDAR‘ Correlator. (PDF; 13,2 MB) National Radio Astronomy Observatory, S. 10

Auf dieser Seite verwendete Medien

Processor families in TOP500 supercomputers.svg
Autor/Urheber: Moxfyre, Lizenz: CC BY-SA 3.0
Area chart showing the representation of different families of microprocessors in the TOP500 supercomputer ranking list, from Jun 1993 - 2020. (Based on the public data from http://www.top500.org/statistics)
EPFL CRAY-I 3.jpg
Autor/Urheber: Rama, Lizenz: CC BY-SA 2.0 fr
Teil der Recheneinheit eines Supercomputers Cray X-MP48, Mitte 1980er Jahre
Cray-1-deutsches-museum.jpg
Autor/Urheber: Clemens PFEIFFER, Lizenz: CC BY 2.5
Ein CRAY-1, aufgenommen im Deutschen Museum, München.
IBM Blue Gene P supercomputer.jpg
Autor/Urheber: Argonne National Laboratory's Flickr page, Lizenz: CC BY-SA 2.0
The IBM Blue Gene/P supercomputer installation at the Argonne Leadership Angela Yang Computing Facility located in the Argonne National Laboratory, in Lemont, Illinois, USA.
Operating systems used on top 500 supercomputers de.svg
Betriebssysteme, die von den Top500 Supercomputern weltweit genutzt werden. Datenquelle: http://top500.org/stats
Columbia Supercomputer - NASA Advanced Supercomputing Facility.jpg
The Columbia Supercomputer at its largest capacity at NASA's Advanced Supercomputing Facility located at NASA Ames Research Center, Moffett Field, California
Top500-D-CH-A.png
TOP500 Supercomputer-Platzierungen nach Ländern (Deutschland, Schweiz, Österreich) im Leistungsvergleich zu TOP3. (Stand Juni 2013)
Supercomputer.svg
Autor/Urheber: Geek1337, Lizenz: CC BY-SA 3.0
Rechengeschwindigkeit der besten Supercomputer in Abhängigkeit vom Zeitpunkt der Inbetriebnahme. Logarithmischer Plot der Datenpunkte mit Ausgleichslinie.