paint-brush
Tiefe neuronale Netzwerke zur Erkennung und Quantifizierung von Lymphomläsionen: Schlussfolgerung und Referenzenvon@reinforcement

Tiefe neuronale Netzwerke zur Erkennung und Quantifizierung von Lymphomläsionen: Schlussfolgerung und Referenzen

Zu lang; Lesen

Diese Studie führt eine umfassende Bewertung von vier neuronalen Netzwerkarchitekturen zur Segmentierung von Lymphomläsionen anhand von PET/CT-Bildern durch.
featured image - Tiefe neuronale Netzwerke zur Erkennung und Quantifizierung von Lymphomläsionen: Schlussfolgerung und Referenzen
Reinforcement Technology Advancements HackerNoon profile picture
0-item

Autoren:

(1) Shadab Ahamed, University of British Columbia, Vancouver, BC, Kanada, BC Cancer Research Institute, Vancouver, BC, Kanada. Er war außerdem Mitacs Accelerate Fellow (Mai 2022 – April 2023) beim Microsoft AI for Good Lab, Redmond, WA, USA (E-Mail: [email protected]);

(2) Yixi Xu, Microsoft AI for Good Lab, Redmond, WA, USA;

(3) Claire Gowdy, BC Children's Hospital, Vancouver, BC, Kanada;

(4) Joo H. O, St. Mary's Hospital, Seoul, Republik Korea;

(5) Ingrid Bloise, BC Cancer, Vancouver, BC, Kanada;

(6) Don Wilson, BC Cancer, Vancouver, BC, Kanada;

(7) Patrick Martineau, BC Cancer, Vancouver, BC, Kanada;

(8) Franc¸ois Benard, BC Cancer, Vancouver, BC, Kanada;

(9) Fereshteh Yousefirizi, BC Cancer Research Institute, Vancouver, BC, Kanada;

(10) Rahul Dodhia, Microsoft AI for Good Lab, Redmond, WA, USA;

(11) Juan M. Lavista, Microsoft AI for Good Lab, Redmond, WA, USA;

(12) William B. Weeks, Microsoft AI for Good Lab, Redmond, WA, USA;

(13) Carlos F. Uribe, BC Cancer Research Institute, Vancouver, BC, Kanada, und University of British Columbia, Vancouver, BC, Kanada;

(14) Arman Rahmim, BC Cancer Research Institute, Vancouver, BC, Kanada, und University of British Columbia, Vancouver, BC, Kanada.

Linktabelle

VI. SCHLUSSFOLGERUNG

In dieser Studie haben wir verschiedene neuronale Netzwerkarchitekturen zur Automatisierung der Segmentierung von Lymphomläsionen in PET/CT-Bildern über mehrere Datensätze hinweg bewertet. Wir haben die Reproduzierbarkeit von Läsionsmessungen untersucht, Unterschiede zwischen den Netzwerken aufgedeckt und ihre Eignung für bestimmte klinische Anwendungen hervorgehoben. Darüber hinaus haben wir drei Kriterien zur Läsionserkennung eingeführt, um die Netzwerkleistung auf Läsionsebene zu bewerten und ihre klinische Relevanz hervorzuheben. Abschließend haben wir Herausforderungen im Zusammenhang mit der Konsistenz der Grundwahrheit erörtert und die Bedeutung eines gut definierten Protokolls für die Segmentierung betont. Diese Arbeit bietet wertvolle Einblicke in die Potenziale und Grenzen des Deep Learning bei der Segmentierung von Lymphomläsionen und betont die Notwendigkeit standardisierter Annotationspraktiken zur Verbesserung der Forschungsvalidität und klinischer Anwendungen.

VERWEISE

[1] SF Barrington et al. „FDG-PET zur Therapieüberwachung bei Hodgkin- und Non-Hodgkin-Lymphomen“. In: European Journal of Nuclear Medicine and Molecular Imaging 44.1 (Aug. 2017), S. 97–110. ISSN: 1619- 7089.


[2] K. Okuyucu et al. „Prognoseabschätzung unter Berücksichtigung metabolischer Tumorparameter bei initialer FDG-PET/CT bei Patienten mit primärem extranodalen Lymphom“. en. In: Radiol. Oncol. 50.4 (Dez. 2016), S. 360–369.


[3] N. Wu et al. „Tiefe neuronale Netzwerke verbessern die Leistung von Radiologen beim Brustkrebs-Screening“. In: IEEE Transactions on Medical Imaging 39.4 (2020), S. 1184–1194.


[4] C. Yuan et al. „Diffuse großzellige B-Zell-Lymphom-Segmentierung in PET-CT-Bildern mittels hybridem Lernen zur Merkmalsfusion“. In: Medical Physics 48.7 (2021), S. 3665– 3678.


[5] H. Hu et al. „Lymphomsegmentierung in PET-Bildern basierend auf Multi-View- und Conv3D-Fusionsstrategie“. In: 2020 IEEE 17. Internationales Symposium für biomedizinische Bildgebung (ISBI). 2020, S. 1197–1200.


[6] H. Li et al. „DenseX-Net: Ein End-to-End-Modell zur Lymphomsegmentierung in Ganzkörper-PET/CT-Bildern“. In: IEEE Access 8 (2020), S. 8004–8018.


[7] L. Liu et al. „Verbesserte multimodale Patch-basierte Lymphomsegmentierung mit negativer Probenaugmentation und Beschriftungsführung bei PET/CT-Scans“. In: Multiscale Multimodal Medical Imaging. Hrsg. von X. Li et al. Cham: Springer Nature Switzerland, 2022, S. 121–129. ISBN: 978-3-031-18814-5.


[8] CS Constantino et al. „Evaluation von halbautomatischen und auf Deep Learning basierenden vollautomatischen Segmentierungsmethoden auf [18F]FDG-PET/CT-Bildern von Patienten mit Lymphom: Einfluss auf die Tumorcharakterisierung“. In: Journal of Digital Imaging 36.4 (Aug. 2023), S. 1864–1876. ISSN: 1618-727X.


[9] AJ Weisman et al. „Vergleich von 11 automatisierten PET-Segmentierungsmethoden bei Lymphomen“. Englisch. In: Physics in medicine & biology 65.23 (2020), S. 235019–235019.


[10] AJ Weisman et al. „Convolutional Neural Networks zur automatisierten PET/CT-Erkennung der Belastung erkrankter Lymphknoten bei Patienten mit Lymphom“. In: Radiologie: Künstliche Intelligenz 2.5 (2020), e200016.


[11] C. Jiang et al. „Deep Learning-basierte Tumorsegmentierung und Vorhersage des gesamten metabolischen Tumorvolumens bei der Prognose von Patienten mit diffusem großzelligem B-Zell-Lymphom in 3D-FDG-PET-Bildern“. In: European Radiology 32.7 (Juli 2022), S. 4801–4812. ISSN: 1432-1084.


[12] P. Blanc-Durand et al. „Vollautomatische Segmentierung diffuser großzelliger B-Zell-Lymphomläsionen auf 3D-FDGPET/CT zur Vorhersage des gesamten metabolischen Tumorvolumens unter Verwendung eines Convolutional Neural Network.“ In: European Journal of Nuclear Medicine and Molecular Imaging 48.5 (Mai 2021), S. 1362–1370. ISSN: 1619-7089.


[13] S. Ahamed et al. „Ein U-Net Convolutional Neural Network mit Multiclass Dice Loss zur automatischen Segmentierung von Tumoren und Lymphknoten aus PET/CT-Bildern von Kopf- und Halskrebs“. In: Kopf- und Halstumorsegmentierung und Ergebnisvorhersage. Hrsg. von V. Andrearczyk et al. Cham: Springer Nature Switzerland, 2023, S. 94–106. ISBN: 978-3-031-27420-6.


[14] S. Gatidis et al. „Ein Ganzkörper-FDG-PET/CT-Datensatz mit manuell annotierten Tumorläsionen“. In: Scientific Data 9.1 (Okt. 2022), S. 601. ISSN: 2052-4463.


[15] M. Pop et al. „Linksventrikuläre Quantifizierung mittels Residual U-Net“. Englisch. In: Bd. 11395. Statistische Atlanten und Computermodelle des Herzens. Herausforderungen bei der atrialen Segmentierung und LV-Quantifizierung. Schweiz: Springer International Publishing AG, 2019, S. 371–380. ISBN: 0302-9743.


[16] A. Myronenko. „3D-MRT-Hirntumorsegmentierung mittels Autoencoder-Regularisierung“. Englisch. In: Brainlesion: Gliom, Multiple Sklerose, Schlaganfall und traumatische Hirnverletzungen. Cham: Springer International Publishing, 2019, S. 311–320. ISBN: 0302-9743.


[17] F. Isensee et al. „nnU-Net: eine selbstkonfigurierende Methode zur Deep Learning-basierten biomedizinischen Bildsegmentierung“. In: Nature Methods 18.2 (Dez. 2020), S. 203–211.


[18] A. Hatamizadeh et al. „Swin UNETR: Swin Transformers zur semantischen Segmentierung von Hirntumoren in MRT-Bildern“. Englisch. In: (2022).


[19] MJ Cardoso et al. MONAI: Ein Open-Source-Framework für Deep Learning im Gesundheitswesen. 2022. arXiv: 2211. 02701 [cs.LG].


[20] S. Ahamed et al. „Auf dem Weg zu einer verbesserten Läsionssegmentierung durch ein 3D-neuronales Netzwerk, das anhand von multiauflösenden Ausschnitten von Lymphom-PET-Bildern trainiert wurde“. In: Journal of Nuclear Medicine 64.Supplement 1 (2023), P1360–P1360. ISSN: 0161-5505.


[21] JL Fleiss. „Measuring nominal scale agreement among many raters“. Englisch. In: Psychological bulletin 76.5 (1971), S. 378–382.


[22] AK Jha et al. „Nuklearmedizin und künstliche Intelligenz: Best Practices für die Evaluierung (die RELAINCE-Richtlinien)“. en. In: J. Nucl. Med. 63.9 (Sept. 2022), S. 1288–1299.


[23] N. Hasani et al. „Künstliche Intelligenz in der Lymphom-PET-Bildgebung: Ein Überblick (aktuelle Trends und zukünftige Richtungen)“. In: PET-Kliniken 17.1 (1. Januar), S. 145–174. ISSN: 1556-8598.


[24] SK Warfield et al. „Simultaneous truth and performance level estimation (STAPLE): ein Algorithmus zur Validierung der Bildsegmentierung“. en. In: IEEE Trans. Med. Imaging 23.7 (Juli 2004), S. 903–921.


Dieses Papier ist verfügbar auf arxiv unter CC 4.0-Lizenz.