Մեկ անգամ, մի ցանցում, ես ասում եմ մի ընկերական արդյունաբերական ինժեներ, որ ես աշխատում եմ supercomputers. Նա պատասխանել է, «Ես պետք է ստանալ մի քանի այն բորբորին, որտեղ ես աշխատում եմ». Ես վախենում եմ, սեղմել եմ հագուստորեն, եւ անցել է. Մինչեւ հետո, դա ստացել է ինձ: նա կարող է կարծես, որ supercomputer- ը մի տեսակի suped-up laptop- ը: RGB լույսեր, անսահմանափակ specs, կարող է լինել ջերմ սառուցման, եթե բաները ստանում են իրականում. Այս սխալը հասանելի է: Իմ հագուստ ընկերությունը արտադրում է laptops եւ տպագրեր, վերջապես. Հավատությունը այն է, որ շատ մարդիկ IT- ի միջոցով - նույնիսկ ինժեներներ - չգիտեն, թե ինչ է supercomputer (a.k.a. Այսպիսով, այնպես որ, քանի որ ես խոսում եմ, ես բացահայտում եմ այն շատ տարբերորեն: High Performance Computing, or HPC) Explaining Supercomputers to a 12‑Year‑Old Եթե ես բացահայտել եմ այս մասին իմ 12-ամյա աղջիկին, ով շատ լավ գիտի խաղային բաղադրիչները, ես ասում եմ ինչ-որ բան: «Ես գիտեմ, թե ինչպե՞ս ձեր gaming laptop- ի մոտ 10 CPU- ի սերտիֆիկները եւ կարող է լինել NVIDIA GPU- ը: Supercomputers Ես աշխատում եմ Ավելի շատ էլեկտրական հզորություն է օգտագործել մի փոքր քաղաքում, եւ օգտագործել «Մենք պետք է կախված ենք». over a million CPU and GPU cores combined about 6,000 gallons of water Սա սովորաբար կատարում է սխալը. Ահա, նրանք ծախսում են մի քանի միլիոն դոլար, այնպես որ, երազանքաբար, նրանք չգիտեն ձեր տեղական բորբարիի բուժում, որպեսզի գտնել են հաջորդ մեծ IPA-ը: Who Owns Supercomputers? Աշխարհի ամենամեծ supercomputers- ի մեծ մասը գտնվում է աշխարհում ամենամեծ բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջջային բջջային բջջային բջջային բջջջային բջջային բջջջային բջջային բջջային բջջջային բջջջային բջջջային բջջջային բջջջային բջջջային բջջջային բջջջային Այս մեքենաները օգտագործվում են ամեն ինչից, կլիմիական մոդելացման եւ կլիմիական մոդելացման համար, մինչեւ նյութական գիտության, astrophysics եւ AI հետազոտությունների համար: How Do You Measure “Fast”? Դուք չեք կարող ճշգրիտ արել Ահա մի supercomputer եւ կոչվում է այն benchmark. Հիմնական Այսպիսով, մի ծրագրը, որը կոչվում է , որը սկսվել է 1993 թվականին, որը տեղադրում է եւ գրավում է աշխարհում ամենամեծ 500- ի հզորագույն ոչ-պատակարարված համակարգչային համակարգեր: Նրանք գրավում են մեկ տարի երկու անգամ, եւ տեղադրումները հիմնված են մի հարմարաբերության վրա, որը կոչվում է . Top500 HPL (High Performance Linpack) HPL- ը չափում է, թե ինչպես արագ համակարգը կարող է լուծել մեծ քիմիական խնդիրը: լայն համակարգը գծային սխալներ: Շատ պարզապես, դա լուծում է ինչ-որ բան, ինչ-որ: A · x = b Ո՞վ է: A- ը մի խոշոր մեթոդ է (մատավորեք միլիոնների հետ) x եւ b են vektor Այս լուծման համար HPL- ը հիմնականում օգտագործում է Gaussian elimination- ը, որը համակարգչական մեթոդ է բացահայտելու տարբերակները, մինչեւ լուծումը կախված է. Parallelism: One Problem, Thousands of Brains Ոչ մեկ համակարգչը չի աշխատում ամբողջ մտուտակին: Ամեն բլոգը (կամ CPU / GPU սերտիֆիկների թիմը) աշխատում է իր սեփական բլոգում: Nodes- ը տեղադրում է գործառույթներ, փրկում է գծեր, թարմացում է արժեքները, եւ հետո թարմացվել տվյալները փոխանցում է այլ գծերի հետ ultra-fast interconnections- ի միջոցով, ինչպիսիք են Slingshot կամ InfiniBand: at the same time Երբ դուք ունեք միասին անմիջապես խոսում է միասին միասին, դուք պետք է միասին խոսել. «MPI- ը մի հաղորդագրական ծրագրակազմի ծրագրակազմի ինտերֆեյս է, ինչպես նաեւ protocol- ի եւ սմարթիկ մասնագիտություններով, ինչպիսիք են իր առանձնահատկությունները ցանկացած տեղադրման մեջ պետք է գործել»: MPI (Message Passing Interface) MPI- ը HPC- ում paralel programming- ի de-facto ստանդարտ է: Եթե դուք աշխատում եք HPL- ում, դուք աշխատում եք MPI- ում: HPL- ի վերջնական արդյունքը նշվում է բաղադրիչ-պտուտակային գործառույթների համար մեկ շաբաթում: Սկսել է մինչեւ: FLOPS GigaFLOPS (109) — միլիոնավոր փոխանակումներ մեկ շաբաթում. TeraFLOPS (1012) — trillions per second. Այժմ մենք ջերմանում ենք. PetaFLOPS (1015) — quadrillions per second. Things start getting serious here. ExaFLOPS (1018) — quintillions per second. Այս պահին թվերը չգիտեն լինել ինտեգրտական եւ սկսեն լինել ֆիզիկական: (Այս ամեն քայլը 1000 անգամ ավելի մեծ է, քան վերջին, պարզապես այն դեպքում, երբ ձեր բարդը դեռ չի վախենում.) A Bit of Supercomputing History Առաջին համակարգը Top500 քարտեզի վրա էր Thinking Machines Corporation- ը 1993 թ. CM‑5 (Connection Machine) Հաղորդագրություն: CM-5- ը հայտնվել է ֆիլմում Հիմնականը, թե ինչպե՞ս կարող եք ստանալ, թե ինչպե՞ս կարող եք ստանալ, թե ինչպե՞ս կարող եք ստանալ, թե ինչպե՞ս կարող եք ստանալ, թե ինչպե՞ս կարող եք ստանալ, թե ինչպե՞ս կարող եք ստանալ: Jurassic Park-ը Welcome to the Exascale Era Աշխարհի առաջին exascale supercomputer , անցել է exaflop ծախսը 30 մայիսի 2022. Frontier Frontier-ը ջերմային սառեցման համար օգտագործվում է 4 350-րդ հզորության պոմպեր, որոնք մեկ րոպեում թռչում են մոտ 6,000 գլան չորս սառեցված ջերմային ջրի: Սա թույլ է տալիս հարմարեցված ջերմային սառեցման դիզայնների թափանցման հզորությունը մոտ 5 անգամ: Այն օգտագործում է մոտ 40 megawatt էներգիայի, ինչպիսիք են 15,000 միավոր տունների օգտագործման համար: Մի Դա է: exaflop 1 000 000 000 000 000 000 օպերացիոնների մեկ շաբաթ (1018 FLOPS) Տեսագրություն: Եթե ամեն մարդ աշխարհում կատարում է Այն պետք է պետք է Տեսեք, թե ինչ է անում մի exascale համակարգչ . one calculation per second over four years one second The Top Exascale Systems (as of November 2025) El Capitan, Frontier, եւ Aurora- ը երեք սերբոմսեր են, որոնք տեղադրվում են ԱՄՆ-ի Energy Department- ի լաբորատոմսերի վրա: Նրանք այժմ են սերբոմսերի մեքենաներ աշխարհում: Rank Name Model Site Total cores Performance in exaflops CPU Accelerator Operating System Interconnect 1 El Capitan HPE Cray EX255a Lawrence Livermore National Laboratory, California, USA 11,340,000 1.809 AMD 4th Gen EPYC 24C 1.8GHz AMD Instinct MI300A TOSS Slingshot-11 2 Frontier HPE Cray EX235a Oak Ridge National Laboratory, Tennessee, USA 9,066,176 1.353 AMD Optimized 3rd Generation EPYC 64C 2GHz AMD Instinct MI250X HPE Cray OS Slingshot-11 3 Aurora HPE Cray EX - Intel Exascale Compute Blade Argonne Leadership Computing Facility, Illinois, USA 9,264,128 1.012 Intel Xeon CPU Max 9470 52C 2.4GHz Intel Data Center GPU Max SLES Slingshot-11 4 JUPITER BullSequana XH3000 Jülich Supercomputing Centre, Germany 4,801,344 1.0 Nvidia GH Superchip 72C 3GHz NVIDIA GH200 Superchip RHEL NVIDIA InfiniBand NDR200 1 Քաղաքական HPE Cray EX255A-ի բաղադրիչները Lawrence Livermore National Laboratory, California, ԱՄՆ-ում 11,340 մլն 1.809 AMD EPYC 24C 1.8GHz-ի 4-րդ սենյակում AMD-ի Instinct MI300A սարքավորումներ Տես Սխալ11 2 Սահմանափակ HPE Cray EX235A-ի բաղադրիչները Oak Ridge National Laboratory, Tennessee, ԱՄՆ 666 666 Հյուրատետր 1.353 AMD Optimized 3rd Generation EPYC 64C 2GHz- ը AMD Instinct MI250X- ը HPE Cray OS- ը Սխալ11 3 Aurora-ի մասին HPE Cray EX - Intel Exascale Compute Blade- ը Argonne Leadership Computing Facility, Illinois, ԱՄՆ Հյուրատետր 264 128 1.012 Intel Xeon CPU Max 9470 52C 2.4GHz սարքավորումներ Intel Data Center-ի GPU Max-ը Տեսակներ Սխալ11 4 JUPITER BullSequana XH3000- ը Jülich Supercomputing Centre, Գերմանիա Հյուրատետր 801 344 1.0 NVIDIA GH Superchip 72C 3GHz սարքավորումներ NVIDIA GH200 Superchip- ը RHEL NVIDIA InfiniBand NDR200-ի համար *TOSS stands for Tri-Lab Operating System Stack and is a Linux distribution based on Red Hat Enterprise Linux (RHEL) that was created to provide a software stack for high performance computing HPC clusters for laboratories within the National Nuclear Security Administration (NNSA). Ինչքան ճշգրիտ են ձեր բազանային Dollars- ը օգտագործվում այս բազաների համար ... Name Uses El Capitan National security simulations (e.g., stockpile stewardship) High‑fidelity modeling & physics simulations Complex scientific modeling & AI‑driven workflows Frontier Broad scientific research Physics & engineering simulations Climate and materials science AI and computational science applications Aurora Aerospace & airflow research Cancer research & materials discovery Energy systems modeling Large‑scale data analysis & scientific simulation Քաղաքական National Security Simulations (հարկե, սարքավորումների կառավարման) High-fidelity մոդելագրություն եւ ֆիզիկական մոդելագրություն Բարձր գիտական մոդելագրություն & AI-driven workflows Սահմանափակ Բարձր գիտական հետազոտություն Physics & Engineering մոդելներ Քաղաքական եւ նյութական գիտություն AI եւ Computational Science ծրագրեր Aurora-ի մասին Aerospace & Airflow հետազոտություններ Cancer Research & Materials Discovery-ի հետազոտություններ Էլեկտրական համակարգերի մոդել Բարձր մանրամասն տվյալների विश्लेषण եւ գիտական մանրամասնություն Մատակարարներ եւ երկրներ Supercomputer Share What Comes After Exascale? Առաջին petaflop համակարգչը, 2008 թ. սկսվել է, այն պետք է Արդյոք, պետք է հասնել Exascale. Roadrunner 14 years Ինչ է հաջորդը — մեքենաներ, որոնք կարող են 1021 թռիչքների գործառույթը մեկ շաբաթում: Zettascale Ավելի հեշտ չէ, ինչպիսիք են նոր համակարգեր Արդյոք, այնքան լավ է, որ այնքան լավ է, որ այնքան լավ է, որ այնքան լավ է, որ այնքան լավ է, որ այնքան լավ է, որ այնքան լավ է, որ այնքան լավ է, որ այնքան լավ է, որ այնքան լավ է. JUPITER Արդյոք անհրաժեշտ են նոր դիզայններ, կարող է կարեւորորեն տարբեր դիզայններ, կարող է մասնագիտացված արագատորներ, կարող է նաեւ քոնատային co-processors, մի օր: AI / ML- ի հզորության հետազոտությունների հետ, հնարավոր է, որ առաջին zettascale համակարգը հասանելի է հաջորդ դիզայնի ընթացքում: Երբեմն, մի նոր հզոր մեքենայի գլուխ արդեն օգտագործվում է, ինչպիսիք են Energy Department- ի եւ եւ Ֆրանսիայում . Lux Discovery Alice Recoque Supercomputing- ի գիշերը շարունակվում է — սեղմաբար, օդանավիճակային վերահսկված շենքի մեջ, որը մատակարարվում է ջրի, էլեկտրական եւ անսահմանափակ քանակի մետաղիկի համար: