Bei einer Networking-Veranstaltung sagte ich einmal einem Mitingenieur, dass ich an Supercomputern arbeite. Er antwortete ihm, "Nice! ich sollte ein paar von denen für die Brauerei bekommen, in der ich arbeite." Ich war verwirrt, lächelte höflich und ging weiter. Später traf es mich: Er hat sich wahrscheinlich einen Supercomputer als eine Art Suped-up-Laptop vorgestellt - RGB-Lichter, absurde Spezifikationen, vielleicht Flüssigkeitskühlung, wenn die Dinge wirklich fantastisch wurden. Die Wahrheit ist, dass die meisten Menschen außerhalb der IT – selbst Ingenieure – nicht wirklich wissen, was ein Supercomputer ist (a.k.a. Also je nachdem, mit wem ich spreche, erkläre ich es sehr unterschiedlich. High Performance Computing, or HPC) Explaining Supercomputers to a 12‑Year‑Old Wenn ich dies meinem 12-Jährigen erklären würde, der Gaming-Laptops ziemlich gut kennt, würde ich so etwas sagen: "Wissen Sie, wie Ihr Gaming-Laptop etwa 10 CPU-Kerne und vielleicht eine NVIDIA GPU hat? Die Supercomputer, an denen ich arbeite , genügend Strom verbrauchen, um eine kleine Stadt zu versorgen, und Nur um cool zu bleiben.“ over a million CPU and GPU cores combined about 6,000 gallons of water Das macht normalerweise den Trick. Und ja, sie kosten Hunderte von Millionen Dollar, also passen sie leider nicht in das Budget Ihrer örtlichen Brauerei, um die nächste große IPA zu entdecken. Who Owns Supercomputers? Die meisten der weltweit führenden Supercomputer gehören zu den reichsten Einheiten auf dem Planeten.In den USA ist es vor allem die Bundesregierung – insbesondere das Energieministerium –, das mehrere nationale Laboratorien in Partnerschaft mit Universitäten sponsert. Andere Bundesregierungen betreiben ihre eigenen Systeme, und ein paar extrem reiche Unternehmen tun es auch. (Saudi ARAMCO hat zum Beispiel eigene Supercomputer.) Diese Maschinen werden für alles verwendet, von Klimamodellierung und nuklearen Simulationen bis hin zu Materialwissenschaft, Astrophysik und KI-Forschung. How Do You Measure “Fast”? Sie können nicht genau laufen auf einen Supercomputer und nennt es ein Benchmark. Krise Stattdessen gibt es ein Projekt namens , begann 1993, die die 500 leistungsstärksten nicht-verteilten Computersysteme der Welt rangiert und dokumentiert.Die Liste wird zweimal im Jahr veröffentlicht, und die Rankings basieren auf einem Benchmark namens . Top500 HPL (High Performance Linpack) HPL misst, wie schnell ein Computer ein massives mathematisches Problem lösen kann: ein dichtes System von linearen Gleichungen. In sehr einfachen Worten löst es so etwas wie: A · x = b Wo ist: A ist eine riesige Matrix (denken Sie Millionen von Millionen) x und b sind Vektoren Um dies zu lösen, verwendet HPL hauptsächlich Gaussische Elimination – eine systematische Art, Variablen zu beseitigen, bis die Lösung ausfällt. (Mathe-Lehrer überall klopfen genehmigend.) Parallelism: One Problem, Thousands of Brains Natürlich kann kein einzelner Computer die gesamte Matrix verarbeiten. Stattdessen wird die Matrix in Blöcke geschnitten.Jeder Rechenknoten (oder eine Gruppe von CPU/GPU-Kernen) arbeitet auf seinem eigenen Stück. Knoten führen lokale Berechnungen durch, beseitigen Zeilen, aktualisieren Werte – und teilen dann aktualisierte Daten mit anderen Knoten über ultra-schnelle Verbindungen wie Slingshot oder InfiniBand. at the same time Wenn du Tausende von Knoten hast, die ständig miteinander reden, brauchst du eine gemeinsame Sprache. MPI ist "eine messaging-passende Anwendungsprogrammieroberfläche, zusammen mit Protokoll und semantischen Spezifikationen für die Art und Weise, wie sich ihre Funktionen in jeder Implementierung verhalten müssen". MPI (Message Passing Interface) MPI ist der de facto Standard für Parallelprogrammierung in HPC. Wenn Sie HPL ausführen, führen Sie MPI aus. Das endgültige HPL-Ergebnis wird als Schwimmpunktoperationen pro Sekunde gemeldet. - Skaliert bis zu: FLOPS GigaFLOPS (109) – Milliarden von Berechnungen pro Sekunde. TeraFLOPS (1012) – Billionen pro Sekunde. PetaFLOPS (1015) – Quadrillionen pro Sekunde. ExaFLOPS (1018) — Quintillionen pro Sekunde. Zu diesem Zeitpunkt sind die Zahlen nicht mehr intuitiv und beginnen philosophisch zu sein. (Jeder Schritt ist tausendmal größer als der letzte, nur für den Fall, dass dein Gehirn nicht schon weh tut.) A Bit of Supercomputing History Das erste System auf der Top500-Liste war die von der Thinking Machines Corporation im Jahr 1993. CM‑5 (Connection Machine) Lustige Tatsache: Ein CM‐5 erschien im Film Er sitzt unheimlich im Kontrollraum mit roten Lichtern im Hintergrund.Natürlich wusste Hollywood, dass leistungsstarke Computer immer etwas gefährlich aussehen sollten. Der Jurassic Park Welcome to the Exascale Era Der weltweit erste Exascale-Supercomputer Er überquerte die Exaflop-Schranke am 30. Mai 2022. Frontier Frontier wird mit vier 350 PS starken Pumpen flüssig gekühlt, die pro Minute etwa 6.000 Gallonen nicht vorgekühltes Wasser zirkulieren. Es verbraucht etwa 40 Megawatt Strom - ungefähr das, was 15.000 Einfamilienhäuser verwenden würden. ein ist es: exaflop 1 000 000 000 000 000 000 Operationen pro Sekunde (1018 FLOPS) Um das in die Perspektive zu stellen: Wenn jeder Mensch auf der Erde Es würde nehmen um zu übereinstimmen, was ein exascale Computer in . one calculation per second over four years one second The Top Exascale Systems (as of November 2025) El Capitan, Frontier und Aurora sind die drei Exascale-Supercomputer, die in den Laboratorien des US-Energieministeriums installiert sind. Rank Name Model Site Total cores Performance in exaflops CPU Accelerator Operating System Interconnect 1 El Capitan HPE Cray EX255a Lawrence Livermore National Laboratory, California, USA 11,340,000 1.809 AMD 4th Gen EPYC 24C 1.8GHz AMD Instinct MI300A TOSS Slingshot-11 2 Frontier HPE Cray EX235a Oak Ridge National Laboratory, Tennessee, USA 9,066,176 1.353 AMD Optimized 3rd Generation EPYC 64C 2GHz AMD Instinct MI250X HPE Cray OS Slingshot-11 3 Aurora HPE Cray EX - Intel Exascale Compute Blade Argonne Leadership Computing Facility, Illinois, USA 9,264,128 1.012 Intel Xeon CPU Max 9470 52C 2.4GHz Intel Data Center GPU Max SLES Slingshot-11 4 JUPITER BullSequana XH3000 Jülich Supercomputing Centre, Germany 4,801,344 1.0 Nvidia GH Superchip 72C 3GHz NVIDIA GH200 Superchip RHEL NVIDIA InfiniBand NDR200 1 Der Kapitän Der HPE Cray EX255a Lawrence Livermore National Laboratory, Kalifornien, USA 11 340 000 1.809 AMD 4. Generation EPYC 24C 1,8 GHz Die AMD Instinct MI300A Toss Schießerei-11 2 Grenzen Der HPE Cray EX235a Oak Ridge National Laboratory, Tennessee, USA 9 066 176 1.353 AMD optimiert 3. Generation EPYC 64C 2GHz AMD Instinct MI250X angezeigt HPE Cray OS Schießerei-11 3 Die Aurora HPE Cray EX - Intel Exascale Compute Blade Argonne Leadership Computing Facility, Illinois, Vereinigte Staaten 9,264 und 128 1.012 Prozessor Intel Xeon Max 9470 52C 2,4 GHz Intel Data Center mit GPU Max Schleier Schießerei-11 4 Jupiter Der BullSequana XH3000 Jülich Supercomputing Centre, Deutschland 4 801 344 1.0 Nächster ArtikelNVIDIA GH Superchip 72C 3GHz NVIDIA GH200 Superchip für alle RHEL Nächster ArtikelNVIDIA InfiniBand NDR200 *TOSS stands for Tri-Lab Operating System Stack and is a Linux distribution based on Red Hat Enterprise Linux (RHEL) that was created to provide a software stack for high performance computing HPC clusters for laboratories within the National Nuclear Security Administration (NNSA). Und wie genau werden Ihre Steuergelder auf diese Tiere ausgegeben ... Name Uses El Capitan National security simulations (e.g., stockpile stewardship) High‑fidelity modeling & physics simulations Complex scientific modeling & AI‑driven workflows Frontier Broad scientific research Physics & engineering simulations Climate and materials science AI and computational science applications Aurora Aerospace & airflow research Cancer research & materials discovery Energy systems modeling Large‑scale data analysis & scientific simulation Der Kapitän Simulationen der nationalen Sicherheit (z. B. Lagerverwaltung) High-Fidelity Modellierung & Physik Simulationen Komplexe wissenschaftliche Modellierung und KI-gesteuerte Workflows Grenzen Breite wissenschaftliche Forschung Physik & Engineering Simulationen Klima- und Materialwissenschaft AI und Computational Science Anwendungen Die Aurora Aerospace & Airflow Forschung Krebsforschung & Materialentdeckung Modellierung von Energiesystemen Große Datenanalyse und wissenschaftliche Simulation Verkäufer und Länder Supercomputer Teilen What Comes After Exascale? Der erste Petaflop Computer 2008 debütierte sie. Erreichung der Exascale. Roadrunner 14 years Und was ist dann als nächstes? Maschinen, die in der Lage sind, 1021 schwimmende Punkte pro Sekunde durchzuführen. Zettascale Es wird nicht einfach sein, dorthin zu gelangen.Neuer Systeme wie Fast exascale Leistung mit halb so vielen Kernen wie der Top-Supercomputer. Neuere Supercomputer haben schleppende 400 Gbps-Switches, also doppelt so viel Netzwerkgeschwindigkeit wie der Top-Supercomputer. JUPITER Neue Ideen werden erforderlich sein. Vielleicht radikal unterschiedliche Architekturen. Vielleicht spezialisierte Beschleuniger. Vielleicht sogar Quantenko-Prozessoren eines Tages. Mit AI/ML-Stärkungsforschung ist es wahrscheinlich, dass das erste Zettascale-System innerhalb des nächsten Jahrzehnts ankommt. Bis dahin wird bereits eine neue Welle von leistungsstarken Maschinen in Betrieb genommen – wie das Energieministerium. und Und Frankreichs . Lux Discovery Alice Recoque Das Supercomputer-Rennen geht weiter – ruhig, in klimatisch kontrollierten Gebäuden, die von Wasser, Elektrizität und einer absurden Menge an Mathematik angetrieben werden.