Europa oficjalnie wkroczyła w erę exascale wraz z uruchomieniem JUPITER, pierwszego na kontynencie superkomputera zdolnego wykonać ponad miliard miliardów operacji na sekundę. System działa już produkcyjnie i został zaprezentowany podczas ceremonii z udziałem europejskich i niemieckich decydentów — to kamień milowy dla nauki, przemysłu oraz cyfrowej suwerenności regionu.
Co oznacza „exascale” — po ludzku
Szybkość komputera mierzy się liczbą operacji arytmetycznych na sekundę. Exascale to co najmniej trylion (10¹⁸) operacji w każdej sekundzie. Jeśli ta liczba brzmi abstrakcyjnie, pomyśl tak: system exaskalowy robi w jedną sekundę to, na co wydajny laptop potrzebowałby wielu lat. Stany Zjednoczone osiągnęły ten próg w 2022 roku dzięki superkomputerowi Frontier; JUPITER po raz pierwszy przenosi taki poziom mocy obliczeniowej do Europy i stawia tutejszych badaczy oraz firmy w światowej czołówce.
Maszyna: jak JUPITER osiąga poziom exascale
JUPITER łączy kilka przełomowych technologii, by uzyskać wydajność exaskalową przy wyjątkowo niskim zużyciu energii jak na swoją klasę:
- Platforma procesorowa. System opiera się na superukładach NVIDIA Grace Hopper (GH200), które łączą CPU i GPU w jednym module, przyspieszając zarówno klasyczne symulacje naukowe, jak i obciążenia związane ze sztuczną inteligencją.
- Architektura systemu. Zbudowany w szafach BullSequana XH3000 firmy Eviden z bezpośrednim chłodzeniem ciepłą wodą, JUPITER został zaprojektowany pod kątem maksymalnej gęstości obliczeń i bardzo efektywnego odprowadzania ciepła.
- Skalowanie i sieć. Około 24 000 superukładów GH200 połączono interkonektami NVIDIA Quantum-2 InfiniBand z ~51 000 łączami wysokiej przepustowości, co pozwala przesyłać dane w tempie wystarczającym, by utrzymać pełne obciążenie wszystkich procesorów.
- Pamięć masowa i centrum danych. System integruje blisko eksabajt przestrzeni dyskowej i mieści się w modułowym kompleksie złożonym z około 50 prefabrykowanych jednostek — taki projekt skrócił czas budowy i ułatwi przyszłe rozbudowy.
W obliczeniach naukowych w podwójnej precyzji (FP64) JUPITER osiąga około jednej eksaflops — czyli tryliona operacji zmiennoprzecinkowych na sekundę. Dla zadań AI z niższą precyzją numeryczną szacowana teoretyczna wydajność szczytowa sięga ok. 90 „eksaflopsów AI”, co czyni JUPITER jednym z najpotężniejszych superkomputerów do sztucznej inteligencji na świecie.
Kto go zbudował — i dlaczego to ma znaczenie polityczne
JUPITER to projekt EuroHPC, finansowany i realizowany przez koalicję obejmującą European High-Performance Computing Joint Undertaking (EuroHPC JU), rząd federalny Niemiec, kraj związkowy Nadrenia Północna-Westfalia oraz konsorcjum przemysłowe kierowane przez Eviden (Atos) i ParTec; NVIDIA dostarcza platformę obliczeń akcelerowanych. Efekt to pierwszy w Europie system exaskalowy i — od momentu uruchomienia — najszybszy na kontynencie, a zarazem jeden z najszybszych na świecie. Poza prestiżem wzmacnia europejską suwerenność technologiczną, bo zapewnia nauce i biznesowi dostęp do mocy obliczeniowej światowej klasy na terenie UE, bez strukturalnej zależności od infrastruktury spoza Europy.
Politycznie to kwestia kluczowa. Obliczenia wysokiej wydajności (HPC) napędzają postępy w sztucznej inteligencji, bezpieczeństwie, polityce klimatycznej, motoryzacji, farmacji i wielu innych sektorach. Kraje dysponujące mocą exaskalową iterują szybciej, utrzymują wrażliwe dane w swojej jurysdykcji i budują wokół centrów superkomputerowych ekosystemy talentów i firm. Debiut JUPITER to jasny sygnał: Europa chce być producentem, a nie tylko konsumentem, czołowych technologii obliczeniowych.
Do czego będzie służył JUPITER
Superkomputer już teraz jest przypisany do szerokiego wachlarza projektów naukowych i przemysłowych:
- Klimat i meteorologia. Zespoły, m.in. z Max Planck Institute for Meteorology, uruchamiają symulacje klimatu w rozdzielczości kilometrowej, które wierniej odwzorowują gwałtowne burze, ulewne deszcze i inne zjawiska ekstremalne. Taki skok rozdzielczości — wcześniej praktycznie niemożliwy — może przełożyć się na bardziej wiarygodne prognozy i lepsze podstawy decyzji publicznych.
- Energia i materiały. Obliczenia exaskalowe przyspieszają projektowanie baterii nowej generacji, katalizatorów, półprzewodników oraz systemów energii odnawialnej, pozwalając testować pomysły wirtualnie długo przed budową prototypów. To skraca cykle B+R i obniża koszty odkryć.
- Sztuczna inteligencja. JUPITER jest także najbardziej zaawansowanym w Europie superkomputerem do AI, zaprojektowanym do trenowania dużych modeli językowych (LLM) w wielu językach europejskich oraz do uruchamiania modeli bazowych dla obrazu, wideo i danych multimodalnych. Utrzymanie treningu na infrastrukturze europejnej ułatwia spełnienie lokalnych wymogów dotyczących ochrony danych i suwerenności cyfrowej.
- Medycyna i neurobiologia. Wysokiej wierności symulatory neuronów będą odwzorowywać aktywność mózgu aż do poziomu podkomórkowego, co ma znaczenie m.in. dla badań nad Alzheimerem i epilepsją. Kampanie dynamiki molekularnej obejmą ogromne zespoły biomolekularne, przybliżając cel tworzenia cyfrowych bliźniaków narządów do testów leków i terapii in silico.
- Badania nad komputerami kwantowymi. Dzięki ogromnej pamięci i przepustowości JUPITER ma szansę bić rekordy w symulacji obwodów kwantowych, przesuwając granicę liczby symulowanych kubitów. Pozwoli to weryfikować algorytmy i konstrukcje sprzętowe, zanim fizyczne urządzenia osiągną taką skalę.
Efektywność energetyczna: wielka moc, kontrolowany ślad
Superkomputery potrafią pobierać wielo-megawatową moc, dlatego efektywność nie jest detalem — to podstawa. JUPITER zaprojektowano od zera pod kątem wydajności na wat.
- Bezpośrednie chłodzenie ciepłą wodą odprowadza ciepło z CPU i GPU znacznie skuteczniej niż chłodzenie powietrzem. Ponieważ woda opuszcza szafy w temperaturze użytecznej, energia może być odzyskiwana.
- Na kampusie przewidziano zagospodarowanie ciepła odpadowego do ogrzewania pobliskich budynków, co zamienia produkt uboczny w zasób i obniża całkowity ślad emisyjny instalacji.
- Liczy się także sprawność układów scalonych: architektura Grace Hopper maksymalizuje stosunek wydajności do poboru mocy zarówno w symulacjach, jak i w AI, co przekłada się na więcej wyników przy tym samym zużyciu energii.
- Jeszcze przed pełnym wdrożeniem pilotażowa szafa oparta na tej samej technologii prowadziła ranking Green500 efektywności energetycznej; kompletny system uchodzi za najbardziej energooszczędny wśród pięciu najszybszych superkomputerów świata. Ta rzadka kombinacja prędkości elitarnych z rekordową efektywnością jest kluczowa w dobie rosnącego zużycia energii przez centra danych.
W sumie projekt wprost odpowiada na obawy środowiskowe: exascale to ogromna moc — ale nie musi oznaczać marnotrawstwa.
Dlaczego to ważne dla gospodarki Europy
Zarówno sektor publiczny, jak i prywatny postrzegają JUPITER jako platformę naukową i gospodarczą. Skoro AI i zaawansowane symulacje są dziś krytyczne w branżach od biotechnologii i motoryzacji po finanse i energetykę, posiadanie mocy exaskalowej w Europie staje się realną przewagą konkurencyjną:
- Obniża bariery wejścia dla europejskich startupów i MŚP, które chcą trenować najnowocześniejsze modele AI i uruchamiać symulacje na wielką skalę bez eksportu danych i zależności od dostawców spoza UE.
- Koncepcja JUPITER AI Factory zakłada dostęp w formule zbliżonej do chmury — kluczowy dla firm potrzebujących krótkotrwałych „pików” obliczeń bez posiadania własnego superkomputera.
- Łącząc misje nauki publicznej z dostępem przemysłowym, Europa może szybciej przekuwać przełomy HPC w produkty: bezpieczniejsze materiały, lżejsze pojazdy, czystsze systemy energetyczne i konkretne postępy w medycynie.
Jest też wymiar kadrowy. Infrastruktury takie jak JUPITER przyciągają i zatrzymują inżynierów, matematyków, chemików i informatyków; tworzą ścieżki kształcenia z uczelniami, finansują doktoraty osadzone w realnych problemach i kotwiczą regionalne klastry innowacji. Z czasem powstaje efekt kuli śnieżnej: lepsze narzędzia przyciągają lepszych ludzi; lepsi ludzie budują lepsze narzędzia.
Jak udało się to tak szybko
Szybka realizacja była możliwa dzięki modułowemu podejściu do centrum danych: wysokotechnologiczne prefabrykaty składają się jak klocki w kompletną infrastrukturę. Skróciło to budowę, ograniczyło prace na miejscu i ułatwi przyszłe rozszerzenia wraz z kolejnymi generacjami układów. Lokalizacja integruje zasilanie, sieci i chłodzenie cieczą w układzie nastawionym na łatwą obsługę i wysoką dostępność. To model, który Europa może powielać przy następnej fali maszyn — z większą spójnością i mniejszym ryzykiem projektowym.
Dostęp, ład korporacyjny i zarządzanie danymi
Superkomputer tej skali rodzi pytania o to, kto i na jakich zasadach może z niego korzystać. Mapa drogowa JUPITER przewiduje miks obciążeń akademickich, prospołecznych i przemysłowych, przydzielanych w konkursach recenzowanych, w ramach inicjatyw strategicznych i kanałów komercyjnych. Kluczowe są: przejrzyste zasady alokacji, silna ochrona danych wrażliwych oraz zgodność z europejskimi zasadami ochrony danych, bezpieczeństwa i odpowiedzialności w AI. Z takimi „barierkami” JUPITER może poszerzać dostęp bez utraty zaufania.
Wyzwania, na które warto uważać
Mimo udanego startu istnieje kilka obszarów wymagających uwagi:
- Dojrzałość oprogramowania. Maksymalna wydajność wymaga kodu zoptymalizowanego pod GPU, pamięć o wysokiej przepustowości i złożone interkonekty. Wiele kodów naukowych wciąż czeka gruntowna modernizacja.
- Sprawiedliwe planowanie. Równoważenie projektów flagowych (np. klimatycznych w skali kontynentu) z mniejszymi, obiecującymi inicjatywami młodych zespołów i startupów wymaga przemyślanych polityk i jasnej komunikacji.
- Cykl życia i modernizacje. Sprzęt exaskalowy szybko się zmienia. Planowanie przyrostowych aktualizacji, logistyki części i kompatybilności z przyszłymi procesorami utrzyma system w czołówce.
- Rynki energii. Nawet bardzo efektywny system zużywa znaczną moc. Długoterminowe kontrakty na zieloną energię i stałe inwestycje w odzysk ciepła pomogą trzymać w ryzach koszty i emisje.
Nowy świt europejskiego supercomputingu
JUPITER to nie tylko „większy komputer”; to platforma odkryć i konkurencyjności. Dla nauki odblokowuje symulacje o wyższej rozdzielczości i dłuższych horyzontach czasowych niż kiedykolwiek — od modeli klimatycznych rozwiązujących burze po systemy molekularne ocierające się o złożoność życia. Dla przemysłu umożliwia szybsze cykle produktowe, bezpieczniejsze konstrukcje i bardziej kompetentną AI, trenowaną na europejskich językach i danych. Dla decydentów publicznych to dowód, że paneuropejska współpraca potrafi dostarczać na czas i efektywnie infrastrukturę na granicy możliwości technicznych.
Wyścig o exascale trwa; maszyny będą coraz szybsze, bardziej wyspecjalizowane i bardziej energooszczędne. Ale wraz z JUPITER włączonym i już pracującym Europa wykonała ruch definiujący — od konsumenta do twórcy najbardziej zaawansowanej mocy obliczeniowej na świecie.