Obecni
Konrad Klimaszewski
Michał Obara
Lech Raczyński
Michał Mazurek
Wojeiech Wiślicki
Rafał Możdżonek
Roman Shopa
Maciej Zajkowski
Dyskusja
Wstęp:
WW: Taka sieć uczona jest na symulowanym obrazie czy na czym innym? Na czym polega procedura?
MO/KK: Stosowane są różne podejścia zarówno oparte o symulacje MC jak i danych rzeczywistych. Przykłady są dyskutowane dalej.
Publikacja Scatter Corrections:
KK: Czy ground truth jest estymatą SSS czy jest określona z info MC?
MO: Uzywane są bezpośrednio informacje z MC - czyli sinogram scatter jest zbudowany z naprawdę rozproszonych przypadków
WW: Różnice między wynikami są nie tak duże - czy te różnice są istotne? Jak skwantyfikować istotność? Nie jest podany błąd.
MO: Nie jestem pewien czy w publikacji określona zostały niepewności dla wyznaczonego poziomu kontrastu. Ważne jest jednak że nie ma tendencji do zaniżania kontrastu co prowadziłoby do braku detekcji zmian nowotworowych.
KK: Wyniki pokazują że metoda ML jest porównywalna z SSS. Poprawę nad SSS można kwantyfikować albo przez poprawę uzyskanego kontarstu albo przez szybkość wyznaczania poprawki co może dyskutują autorzy.
RS: Istotna jest uzyskanie dobrego kontarstu dla organów gdzie jest wysoka aktywność czyli w okolicach contrast recovery coefficient około 3:1
Publikacja o positron range:
WW: Czym są maksima na środkowym obrazku?
KK: Wydaje mi się że wykresy odpowiadają przekrojom przez fantom więc dodatkowe maksima to maksima aktywności w danycm przekroju.
WW: Czy metoda jest uniwersalna na różne typy zaburzeń?
MO: Tak metoda powinna być niezależna od typu zaburzeń - uczenie przebiega całościowo na poziomie obrazu uwzględniając wszystkie zasymulowane efekty.
RS: 68Ga ma inny rozkład aktywności niż 18F ze względu na inny mechanizm fizjologiczny. Rozmycie z positron range jest mocno nie gaussowskie. Jestem sceptyczny możliwości zastosowania pokazanego modelu bez weryfikacji na danych rzeczywistych.
MO/KK: Tak publiikacja nie pochodzi z "dobrego" czasopisma. Jest to jednak przykład próby zastosowania ML w obszarze który jest mało eksplorowany. W najbliższym czasi emozna oczekiwać lepszych publikacji np od grupy z Brest.
Publikacja o federated learning:
KK: W jaki sposób składane są wyniki modeli uczonych niezależnie w poszczególnych ośrodkach.
MO: Przeprowadzana jest agregacja wyników niestety nie pamiętam szczegółów.
KK: Wyniki vs poprawki klasyczne?
MO: Autorzy skupili się na porównaniu wyników różnych modeli "uwspólniania" danych z kilku ośrodków. Nie zauważyłem dyskusji jakości wyników uczenia ML w porównaniu z metodami klasycznymi.