DR NORBERT KAPIŃSKI
INTERDYSCYPLINARNE CENTRUM MODELOWANIA MATEMATYCZNEGO I KOMPUTEROWEGO
UNIWERSYTET WARSZAWSKI
DR NORBERT KARPIŃSKI
INTERDYSCYPLINARNE CENTRUM MODELOWANIA MATEMATYCZNEGO I KOMPUTEROWEGO
UNIWERSYTET WARSZAWSKI
Predykcja śmiertelności i detekcja patologii w obrazowych badaniach przesiewowych klatki piersiowej z wykorzystaniem technik głębokiego uczenia maszynowego
CEL PROJEKTU
Problem
Projekt dotyczy wykorzystania technik sztucznej inteligencji, w tym metod głębokiego uczenia maszynowego, do analizy obrazów medycznych RTG i niskodawkowej tomografii komputerowej, pochodzących z badań przesiewowych pod kątem wczesnego wykrywania zmian patologicznych i predykcji ryzyka zgonu.
Cel projektu
Celem projektu jest wykazanie, że z pomocą technik wyjaśnialnej sztucznej inteligencji (Trustworthy AI) zastosowanej do analizy obrazów medycznych w badaniach przesiewowych możliwe jest wczesne wykrywanie zmian patologicznych oraz ocena ryzyka zgonu. Główne zadania projektu obejmują opracowanie i walidację modeli sztucznej inteligencji realizujących powyższe zadania oraz opracowanie metod wyjaśnialności rezultatów modelu, w szczególności w zakresie wpływu nisko- i wysokopoziomowej informacji obrazowej.
ZADANIA DLA SUPERKOMPUTERA
01.
Podstawową technologią obliczeniową dla metod głębokiego uczenia maszynowego, w szczególności w zakresie konwolucyjnych sieci neuronowych (CNN), są tzw. obliczenia tensorowe. Jedną z najbardziej wydajnych architektur realizujących takie obliczenia są procesory graficzne (GPU). Ze względu na liczebność i rozmiary danych, rozmiary modeli oraz konieczność iteracyjnej pracy w zakresie wielu epok obliczeń, rozwiązania klasy superkomputerowej najlepiej nadają się do realizacji tego typu projektów, zapewniając moc obliczeniową procesorów GPU, duże zasoby pamięci operacyjnej hosta oraz GPU, a także szybki dostęp do składowanych zasobów danych i metadanych.
02.
Zagadnienia badane przy użyciu technik sztucznej inteligencji wymagają dużych ilości zbiorów danych i metadanych (np. etykiety) do treningu i walidacji – często rzędu dziesiątek, a nawet setek tysięcy obrazów i rekordów powiązanych. W przypadku medycznych danych obrazowych pochodzących z obrazowania 3D (np. tomografii komputerowej) pojedynczą próbką danych jest zazwyczaj całe badanie obrazowe (tzw. seria) o rozmiarze rzędu 100 MB (np. 200 obrazów 2D 512x512x2B). Zbiór treningowy obejmujący kilkadziesiąt tysięcy badań to zasoby danych na poziomie kilku–kilkunastu TB, a proces trenowania modelu wymaga wielokrotnego wykorzystania pełnego zbioru. Ponadto metadane, a w szczególności etykiety, są często przypisywane na poziomie pojedynczych przekrojów lub pojedynczych pikseli badania obrazowego, co wymaga odpowiednich zasobów bazodanowych do wydajnego składowania i przeszukiwania zasobów metadanych o liczebności o kilka rzędów wielkości większej niż liczebność samych badań.
KORZYŚCI ZE WSPÓŁPRACY Z ICM UW
Podjęte w projekcie zadanie analizy badań przesiewowych klatki piersiowej oparte zostało o zasoby danych obejmujące 90 000 serii obrazowych tomografii komputerowej. Ze względu na rozmiar danych oraz złożoność trenowanego modelu zagadnienie wymagało rozwiązania następujących problemów: wydajnego zarządzania metadanymi na poziomie pojedynczych obrazów (18 mln) dla planowania eksperymentów, wydajnego dostępu do zbiorów danych, wydajnych obliczeń oraz dużej pamięci GPU mieszczącej model i odpowiednią liczbę próbek danych (tzw. batch).
Przy użyciu zasobów Centrum zrealizowano wszystkie opisane powyżej komponenty procesu trenowania modeli. Z wykorzystaniem szybkich zasobów danych (SSD/NVME) oraz baz danych w pamięci (IMDB) przygotowano dedykowane rozwiązanie integrujące bazę danych z systemem składowania obrazów medycznych (PACS) do zarządzania metadanymi i adresację danych obrazowych.
Do obliczeń wykorzystano klaster Rysy oparty o karty GPU NVIDIA V100 32GB, zapewniając wysoką wydajność obliczeń i duży zasób pamięci modelu. Obliczenia były realizowane w języku Python w środowisku TensorFlow.
Ze względu na dużą intensywność dostępu do danych (wysoki współczynnik odczytu danych w stosunku do czasu obliczeń) oraz duży rozmiar zbioru treningowego i walidacyjnego konieczne było zapewnienie dostępu do danych z poziomu systemu obliczeniowego GPU w modelu hierarchicznym.
Dane składowane były całościowo w systemie plików Lustre (Tetyda) oraz asynchronicznie alokowane na szybkich zasobach lokalnych (SSD/NVME) klastra obliczeniowego.
Dzięki zastosowaniu infrastruktury HPC:
- umożliwiono proces treningu modeli o większej złożoności przy wyższych wartościach batch-size;
- zredukowano czas odpowiedzi bazy metadanych o kilka rzędów wielkości;
- zredukowano czas dostępu do danych o kilka rzędów wielkości.
Realizacja obliczeń założonych w projekcie w modelu wielokrotnych eksperymentów stała się realistyczna czasowo jedynie dzięki powyższym usprawnieniom infrastrukturalnym.
90 000
SERII OBRAZOWYCH
18 mln
POJEDYNCZYCH OBRAZÓW
EFEKTY
Możliwe jest wykorzystanie wyników projektu w praktyce i przyszłe wdrożenie do
zastosowań klinicznych pod warunkiem rozszerzenia walidacji, wykazania
wiarygodności rezultatów i osadzenia w mierzalnych korzyściach klinicznych w zakresie
badań przesiewowych klatki piersiowej, ze szczególnym uwzględnieniem badań
przesiewowych raka płuc.