From imaging algorithms to quantum methods Seminar

Europe/Warsaw
https://cern.zoom.us/j/66151941204?pwd=n7upvvZYibexBhbtyn5kvTpy36L0Wo.1 (Zoom)

https://cern.zoom.us/j/66151941204?pwd=n7upvvZYibexBhbtyn5kvTpy36L0Wo.1

Zoom

Konrad Klimaszewski (NCBJ), Wojciech Krzemien (NCBJ)

## Title: Adaptid 3D Augmentation in StyleGAN2-ADA for High-Fidelity Lung Nodule Synthesis form Limited CT Volumes¶
## Presenter: Oleksandr Fedoruk
## Date: 27.10 2025

## Participants:
Wojciech Krzemień (WK)
Konrad Klimaszewski (KK)
Roman Shopa (RS)
Lech Raczynski (LR)
Oleksandr Fedoruk (OF)
Aleksander Ogonowski (AO)
Michał Mazurek (MM)

## Discussion:

WK: Co to jest klasa 0 i klasa 1?
OF: klasa 0 - guzy o małej złośliwości (malignancy), klasa 1 o dużej złośliwości

WK: Jak jest zdefniniowana metryka LPIPS ?
OF:  Porównanie podobieństwa dwóch obrazów na podstawie wektorów cech wyekstrahowanych przez sieć neuronową (zazwyczaj AlexNet).
KK: Liczona jest druga norma między wektorami wektorami cech z sieci neuronowej wyznaczonych dla dwóch obrazów. 0 będzie odpowiadać identycznym obrazom w tym sensie.

KK: Jak duży był batch size? Czy możliwe jest zwiększenie rozmiarów obrazów?
OF: Użyty batch size to 16 - większy nie mieścił się w pamięci GPU. Znaczne zwiększenie rozmiaru
obrazu wymagałoby zmian architekturze sieci poprzez użycie obliczeń w niższej precyzji: np mixed
precision czy kwantyzacja.

KK: Uwaga. Przedstawiane oodejście naiwne w slice'ach nie było aż tak naiwne W kierunku z był przypisywany styl, więc teoretycznie powinien się  czegoś uczyć.
OF: Tak to prawda, był zaimplementowany taki mechanizm. Ale nie było uwzględnione czy to co zostanie wygenerowane w slice'ie pasuje do reszty obiektów.

RS: Pytania o sieciach GAN. Odwrotny problem jest używany do takich danych której sieć nie rozpozna a rozpozna ludzkie oko. Czy da się taki typ danych  wygenerować przez GAN? Czy da się to zastosować np. w kontekście RODO?
OF: Domyślna architektura raczej nie zadziała. Ogólnie pewnie by się dało, ale GANy nie są dobrym narzędziem do tego. Jeżeli chodzi o RODO, to jako opcja jest stosowanie obrazu nauczonego przez szpital GANa, zamiast prawdziwych danych pacjenta, więc to jest dobre rozwiązanie.

WK: Czy próbowaliście zastosować te wyniki 3-D do augmentacji ?
OF: Dla 2-D to nie zadziałało, tradycyjne augmentacje dawały podobne wyniki. Dla 3-D pewnie wyniki mogą być podobne.
KK: Dla 2-D także widzieliśmy pokrywanie się tych dystrybucji similarity, ale efekt był słaby w klasyfikacji (nie lepszy niż w augmentacji klasycznej). Raczej można ten serwis traktować jako zastosowanie do RODO.
KK: Inne potencjalne zastosowanie to łączenie obrazów z dwóch zbiorów z guzami i zdrowymi. Mieszanie datasetów.

WK: Czy możesz skomentować jak się sprawa ma "z diffusion models"?
OF: Ciągle modele dyfuzyjne potrzebują dużej ilości danych. Mój pomysł na przyszłość to wykorzystanie w  dyskryminatorze  vision transformera oraz sieci konwolucyjnej, żeby zmusić generarot do generowania bardziej różnorodnych danych.

There are minutes attached to this event. Show them.
    • 10:00 11:00
      Adaptive 3D Augmentation in StyleGAN2-ADA for High-Fidelity Lung Nodule Synthesis from Limited CT Volumes 1h

      Generative adversarial networks (GANs) typically require large datasets for effective training, which poses challenges for volumetric medical imaging tasks where data are scarce. This study addresses this limitation by adapting adaptive discriminator augmentation (ADA) for three-dimensional (3D) StyleGAN2 to improve generative performance on limited volumetric data. The proposed 3D StyleGAN2-ADA redefines all 2D operations for volumetric processing and incorporates the full set of original augmentation techniques. Experiments are conducted on the NoduleMNIST3D dataset of lung CT scans containing 590 voxel-based samples across two classes. Two augmentation pipelines are evaluated—one using color-based transformations and another employing a comprehensive set including geometric, filtering, and corruption augmentations. Performance is compared against a slice-wise 2D StyleGAN2-ADA baseline by assessing generation quality with Kernel Inception Distance (KID) and Learned Perceptual Image Patch Similarity (LPIPS). Results show that volumetric ADA substantially enhances training stability and reduces mode collapse, even under severe data constraints. Aggressive augmentation improves the realism of generated 3D samples and better preserves anatomical structures relative to 2D slice-wise training. These findings demonstrate that adaptive 3D augmentations effectively enable high-quality synthetic medical image generation from extremely limited volumetric datasets.

      Speaker: Oleksandr Fedoruk
    • 11:00 11:30
      Discussion 30m
Your browser is out of date!

Update your browser to view this website correctly. Update my browser now

×