Autores:
(1) Shadab Ahamed, Universidade da Colúmbia Britânica, Vancouver, BC, Canadá, BC Cancer Research Institute, Vancouver, BC, Canadá. Ele também foi Mitacs Accelerate Fellow (maio de 2022 - abril de 2023) no Microsoft AI for Good Lab, Redmond, WA, EUA (e-mail: [email protected]);
(2) Yixi Xu, Microsoft AI for Good Lab, Redmond, WA, EUA;
(3) Claire Gowdy, Hospital Infantil BC, Vancouver, BC, Canadá;
(4) Joo HO, Hospital St. Mary, Seul, República da Coreia;
(5) Ingrid Bloise, BC Cancer, Vancouver, BC, Canadá;
(6) Don Wilson, BC Cancer, Vancouver, BC, Canadá;
(7) Patrick Martineau, BC Cancer, Vancouver, BC, Canadá;
(8) François Benard, BC Cancer, Vancouver, BC, Canadá;
(9) Fereshteh Yousefirizi, BC Cancer Research Institute, Vancouver, BC, Canadá;
(10) Rahul Dodhia, Microsoft AI for Good Lab, Redmond, WA, EUA;
(11) Juan M. Lavista, Microsoft AI for Good Lab, Redmond, WA, EUA;
(12) William B. Weeks, Microsoft AI for Good Lab, Redmond, WA, EUA;
(13) Carlos F. Uribe, BC Cancer Research Institute, Vancouver, BC, Canadá, e Universidade da Colúmbia Britânica, Vancouver, BC, Canadá;
(14) Arman Rahmim, BC Cancer Research Institute, Vancouver, BC, Canadá, e Universidade da Colúmbia Britânica, Vancouver, BC, Canadá.
Neste estudo, avaliamos várias arquiteturas de redes neurais para automatizar a segmentação de lesões de linfoma em imagens PET/CT em vários conjuntos de dados. Examinamos a reprodutibilidade das medidas das lesões, revelando diferenças entre as redes, destacando sua adequação para usos clínicos específicos. Além disso, introduzimos três critérios de detecção de lesões para avaliar o desempenho da rede por lesão, enfatizando sua relevância clínica. Por último, discutimos os desafios relacionados à consistência da verdade e enfatizamos a importância de ter um protocolo bem definido para segmentação. Este trabalho fornece informações valiosas sobre os potenciais e limitações do aprendizado profundo na segmentação de lesões de linfoma e enfatiza a necessidade de práticas de anotação padronizadas para melhorar a validade da pesquisa e as aplicações clínicas.
[1] SF Barrington et al. “FDG PET para monitoramento terapêutico em linfomas Hodgkin e não-Hodgkin”. In: European Journal of Nuclear Medicine and Molecular Imaging 44.1 (agosto de 2017), pp. ISSN: 1619-7089.
[2] K. Okuyucu et al. “Estimativa do prognóstico à luz dos parâmetros metabólicos do tumor no FDG-PET/CT inicial em pacientes com linfoma extranodal primário”. en. In: Radiol. Oncol. 50.4 (dezembro de 2016), pp.
[3] N. Wu e outros. “Redes Neurais Profundas Melhoram o Desempenho dos Radiologistas no Rastreio do Cancro da Mama”. In: Transações IEEE sobre imagens médicas 39.4 (2020), pp.
[4]C. Yuan et al. “Segmentação difusa de linfoma de grandes células B em imagens PET-CT via aprendizagem híbrida para fusão de recursos”. In: Física Médica 48.7 (2021), pp.
[5] H. Hu et al. “Segmentação de linfoma em imagens PET com base na estratégia Multi-view e Conv3D Fusion”. In: 2020 IEEE 17º Simpósio Internacional de Imagens Biomédicas (ISBI). 2020, pp.
[6] H. Li et al. “DenseX-Net: um modelo ponta a ponta para segmentação de linfoma em imagens PET/CT de corpo inteiro”. In: IEEE Access 8 (2020), pp.
[7]L. Liu et al. “Segmentação de linfoma baseada em adesivo multimodal aprimorada com aumento de amostra negativa e orientação de rótulo em exames PET/CT”. In: Imagem Médica Multimodal Multiescala. Ed. por X. Li et al. Cham: Springer Nature Suíça, 2022, pp. ISBN: 978-3-031-18814-5.
[8] CS Constantino et al. “Avaliação de métodos de segmentação totalmente automáticos baseados em aprendizado profundo e semiautomático em imagens PET/CT [18F] FDG de pacientes com linfoma: influência na caracterização do tumor”. In: Journal of Digital Imaging 36.4 (agosto de 2023), pp. ISSN: 1618-727X.
[9] AJ Weisman et al. “Comparação de 11 métodos automatizados de segmentação PET no linfoma”. Inglês. In: Física em medicina e biologia 65.23 (2020), pp.
[10] AJ Weisman et al. “Redes Neurais Convolucionais para Detecção Automatizada de PET/CT de Carga de Linfonodo Doente em Pacientes com Linfoma”. In: Radiologia: Inteligência Artificial 2.5 (2020), e200016.
[11]C.Jiang et al. “Segmentação tumoral baseada em aprendizagem profunda e previsão do volume metabólico total do tumor no prognóstico de pacientes com linfoma difuso de grandes células B em imagens 3D FDG-PET”. In: European Radiology 32.7 (julho de 2022), pp. ISSN: 1432-1084.
[12] P. Blanc-Durand et al. “Segmentação totalmente automática de lesões difusas de linfoma de grandes células B em FDGPET/CT 3D para previsão do volume metabólico total do tumor usando uma rede neural convolucional.” In: European Journal of Nuclear Medicine and Molecular Imaging 48.5 (maio de 2021), pp. ISSN: 1619-7089.
[13] S. Ahamed e outros. “Uma rede neural convolucional U-Net com perda de dados multiclasse para segmentação automatizada de tumores e gânglios linfáticos de imagens PET/CT de câncer de cabeça e pescoço”. In: Segmentação de tumores de cabeça e pescoço e previsão de resultados. Ed. por V. Andrearczyk et al. Cham: Springer Nature Suíça, 2023, pp. ISBN: 978-3-031-27420-6.
[14] S. Gatidis et al. “Um conjunto de dados FDG-PET/CT de corpo inteiro com lesões tumorais anotadas manualmente”. In: Scientific Data 9.1 (outubro de 2022), p. 601. ISSN: 2052-4463.
[15] M. Pop et al. “Quantificação do ventrículo esquerdo usando U-Net residual”. Inglês. Em: vol. 11395. Atlas Estatísticos e Modelos Computacionais do Coração. Desafios da Segmentação Atrial e Quantificação do VE. Suíça: Springer International Publishing AG, 2019, pp. ISBN: 0302-9743.
[16] A. Myronenko. “Segmentação de tumor cerebral por ressonância magnética 3D usando regularização de autoencoder”. Inglês. In: Lesão cerebral: glioma, esclerose múltipla, acidente vascular cerebral e lesões cerebrais traumáticas. Cham: Springer International Publishing, 2019, pp. ISBN: 0302-9743.
[17] F. Isensee et al. “nnU-Net: um método autoconfigurável para segmentação de imagens biomédicas baseada em aprendizagem profunda”. In: Nature Methods 18.2 (dezembro de 2020), pp.
[18] A. Hatamizadeh et al. “Swin UNETR: Transformadores Swin para segmentação semântica de tumores cerebrais em imagens de ressonância magnética”. Inglês. Em: (2022).
[19] MJ Cardoso et al. MONAI: Uma estrutura de código aberto para aprendizagem profunda em saúde. 2022. arXiv: 2211.02701 [cs.LG].
[20] S. Ahamed et al. “Rumo à segmentação aprimorada de lesões usando uma rede neural 3D treinada em fragmentos recortados em multiresolução de imagens PET de linfoma”. In: Journal of Nuclear Medicine 64.suplemento 1 (2023), P1360 – P1360. ISSN: 0161-5505.
[21] JL Fleiss. “Medindo a concordância da escala nominal entre muitos avaliadores”. Inglês. In: Boletim Psicológico 76.5 (1971), pp.
[22] AK Jha et al. “Medicina Nuclear e inteligência artificial: Melhores práticas para avaliação (diretrizes RELAINCE)”. en. In: J. Nucl. Med. 63.9 (setembro de 2022), pp.
[23] N. Hasani e outros. “Inteligência Artificial em Imagens PET de Linfoma: Uma Revisão de Escopo (Tendências Atuais e Direções Futuras)”. In: PET clinics 17.1 (1º de janeiro), pp. ISSN: 1556-8598.
[24] SK Warfield e outros. “Estimativa simultânea de verdade e nível de desempenho (STAPLE): um algoritmo para validação de segmentação de imagens”. en. In: IEEE Trans. Med. Imaging 23.7 (julho de 2004), pp.
Este artigo é