Narodowe Centrum Kompetencji
HPC
HPC W POLSCE
HPC (ang. High Performance Computing) to – w dużym skrócie – obliczenia wysokiej wydajności, a nieco dokładniej: systemy komputerowe połączone w jeden duży superkomputer do prowadzenia skomplikowanych i zaawansowanych obliczeń, niewykonalnych na zwykłych komputerach. Wysokowydajne obliczenia, wykorzystywane m.in. w prognozowaniu pogody, fizyce kwantowej, mechanice płynów czy biologii molekularnej, są możliwe dzięki pracy wielu serwerów połączonych w jeden rozbudowany system, nazywany klastrem komputerowym lub superkomputerem. Tego typu maszyny wyposażone są w setki, a nawet tysiące serwerów, wielordzeniowe procesory, akceleratory, potężną ilość pamięci RAM i przestrzeni dyskowej, pozwalającej przechowywać i szybko przetwarzać ogromne ilości danych.
Centra superkomputerowe w Polsce
wchodzące w skład Narodowego Centrum Kompetencji HPC

CI TASK – Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej (Gdańsk)
PCSS – Poznańskie Centrum Superkomputerowo-Sieciowe (Poznań)
ICM – Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego UW (Warszawa)
NCBJ – Narodowe Centrum badań Jądrowych (Otwock)
WCSS – Wrocławskie Centrum Sieciowo-Superkomputerowe (Wrocław)
Cyfronet – Akademickie Centrum Komputerowe Cyfronet AGH (Kraków)
PRZYKŁADY ZASTOSOWANIA SUPERKOMPUTERÓW W PRAKTYCE
Numeryczna analiza aerodynamiczna i aeroakustyczna metod sterowania przepływem
CEL PROJEKTU: Poprawa charakterystyk aerodynamicznych i/lub aeroakustycznych opływanych konstrukcji z wykorzystaniem badań numerycznych stosujących pasywne i aktywne metody sterowania przepływem (np.: blaszkowe, prętowe i fluidalne generatory wirów oraz perforowane ściany).
Predykcja śmiertelności i detekcja patologii w obrazowych badaniach przesiewowych klatki piersiowej z wykorzystaniem technik głębokiego uczenia maszynowego
CEL PROJEKTU: Wykazanie, że z pomocą technik sztucznej inteligencji zastosowanej do analizy obrazów medycznych w badaniach przesiewowych można wcześnie wykrywać zmiany patologiczne i oceniać ryzyka zgonu. Główne zadania projektu to opracowanie i walidacja modeli SI realizujących powyższe zadania i opracowanie metod wyjaśnialności rezultatów modelu.
Przygotowanie referencyjnych baz danych klasy Direct Numerical Simulations w odniesieniu do projektowania nowych technologii jądrowych i zastosowań związanych z bezpieczeństwem jądrowym
CEL PROJEKTU: Wytworzenie dwóch referencyjnych baz danych klasy Direct Numerical Simulations (DNS) dla dwóch zjawisk fizycznych występujących w reaktorach jądrowych:
- wstrząsu termicznego w warunkach wysokiego ciśnienia (pressurized thermal shock – PTS)
- mieszania chłodziwa w kasetach paliwowych.
„Czy wiesz, czym oddychasz?”
Kampania informacyjno-edukacyjna na rzecz czystszego powietrza LIFE – MAPPINGAIR/PL
CEL PROJEKTU: Jednym z zadań projektu jest operacyjne prognozowanie jakości powietrza w dużej rozdzielczości czasowej i przestrzennej (zakres prognoz: 72 h, rozdzielczość czasowa: 1 h, rozdzielczość przestrzenna dla domeny Polska: 4 km, dla subdomeny 1 km: 50 m), z wykorzystaniem modeli prognostycznych WRF-Chem, EMEP i uEMEP, oraz operacyjne udostępnianie prognoz dla społeczeństwa.