Autores:
(1) Shadab Ahamed, Universidad de Columbia Británica, Vancouver, BC, Canadá, BC Cancer Research Institute, Vancouver, BC, Canadá. También fue miembro de Mitacs Accelerate (mayo de 2022 - abril de 2023) en Microsoft AI for Good Lab, Redmond, WA, EE. UU. (correo electrónico: [email protected]);
(2) Yixi Xu, Microsoft AI for Good Lab, Redmond, WA, EE. UU.;
(3) Claire Gowdy, BC Children's Hospital, Vancouver, BC, Canadá;
(4) Joo H. O, St. Mary's Hospital, Seúl, República de Corea;
(5) Ingrid Bloise, BC Cancer, Vancouver, BC, Canadá;
(6) Don Wilson, BC Cancer, Vancouver, BC, Canadá;
(7) Patrick Martineau, BC Cancer, Vancouver, BC, Canadá;
(8) Franc¸ois Benard, BC Cancer, Vancouver, BC, Canadá;
(9) Fereshteh Yousefirizi, BC Cancer Research Institute, Vancouver, BC, Canadá;
(10) Rahul Dodhia, Microsoft AI for Good Lab, Redmond, WA, EE. UU.;
(11) Juan M. Lavista, Microsoft AI for Good Lab, Redmond, WA, EE. UU.;
(12) William B. Weeks, Microsoft AI for Good Lab, Redmond, WA, EE. UU.;
(13) Carlos F. Uribe, BC Cancer Research Institute, Vancouver, BC, Canadá, y Universidad de Columbia Británica, Vancouver, BC, Canadá;
(14) Arman Rahmim, BC Cancer Research Institute, Vancouver, BC, Canadá, y Universidad de Columbia Británica, Vancouver, BC, Canadá.
En este estudio, evaluamos varias arquitecturas de redes neuronales para automatizar la segmentación de lesiones de linfoma en imágenes PET/CT en múltiples conjuntos de datos. Examinamos la reproducibilidad de las medidas de lesión, revelando diferencias entre redes y destacando su idoneidad para usos clínicos específicos. Además, introdujimos tres criterios de detección de lesiones para evaluar el rendimiento de la red a nivel de lesión, enfatizando su relevancia clínica. Por último, discutimos los desafíos relacionados con la coherencia de la verdad fundamental y destacamos la importancia de tener un protocolo bien definido para la segmentación. Este trabajo proporciona información valiosa sobre los potenciales y las limitaciones del aprendizaje profundo en la segmentación de lesiones de linfoma y enfatiza la necesidad de prácticas de anotación estandarizadas para mejorar la validez de la investigación y las aplicaciones clínicas.
[1] SF Barrington et al. “PET con FDG para el seguimiento del tratamiento en linfomas de Hodgkin y no Hodgkin”. En: Revista europea de medicina nuclear e imágenes moleculares 44.1 (agosto de 2017), págs. 97-110. ISSN: 1619-7089.
[2] K. Okuyucu et al. “Estimación del pronóstico a la luz de los parámetros metabólicos tumorales en la FDG-PET/TC inicial en pacientes con linfoma extraganglionar primario”. es. En: Radiol. Oncol. 50.4 (diciembre de 2016), págs. 360–369.
[3] N. Wu y col. "Las redes neuronales profundas mejoran el desempeño de los radiólogos en la detección del cáncer de mama". En: IEEE Transactions on Medical Imaging 39.4 (2020), págs. 1184-1194.
[4] C. Yuan et al. “Segmentación difusa de linfoma de células B grandes en imágenes PET-CT mediante aprendizaje híbrido para la fusión de características”. En: Física Médica 48.7 (2021), págs. 3665–3678.
[5] H. Hu et al. “Segmentación de linfoma en imágenes PET basada en estrategia de fusión Conv3D y vista múltiple”. En: 2020 IEEE 17º Simposio Internacional sobre Imágenes Biomédicas (ISBI). 2020, págs. 1197-1200.
[6] H. Li y col. "DenseX-Net: un modelo de extremo a extremo para la segmentación de linfomas en imágenes PET/CT de cuerpo entero". En: IEEE Access 8 (2020), págs. 8004–8018.
[7] L. Liu et al. "Segmentación mejorada del linfoma basada en parches multimodales con aumento de muestras negativas y orientación de etiquetas en exploraciones PET/CT". En: Imágenes médicas multimodales multiescala. Ed. por X. Li et al. Cham: Springer Nature Suiza, 2022, págs. ISBN: 978-3-031-18814-5.
[8] CS Constantino et al. “Evaluación de métodos de segmentación totalmente automáticos basados en aprendizaje profundo y semiautomático en imágenes PET/CT con [18F]FDG de pacientes con linfoma: influencia en la caracterización del tumor”. En: Journal of Digital Imaging 36.4 (agosto de 2023), págs. 1864–1876. ISSN: 1618-727X.
[9] AJ Weisman y cols. “Comparación de 11 métodos automatizados de segmentación PET en linfoma”. Inglés. En: Física en medicina y biología 65.23 (2020), págs. 235019–235019.
[10] AJ Weisman y cols. "Redes neuronales convolucionales para la detección automatizada de PET/CT de la carga de los ganglios linfáticos enfermos en pacientes con linfoma". En: Radiología: Inteligencia Artificial 2.5 (2020), e200016.
[11] C. Jiang y otros. "Segmentación de tumores basada en aprendizaje profundo y predicción del volumen metabólico total del tumor en el pronóstico de pacientes con linfoma difuso de células B grandes en imágenes 3D FDG-PET". En: European Radiology 32.7 (julio de 2022), págs. 4801–4812. ISSN: 1432-1084.
[12] P. Blanc-Durand et al. "Segmentación completamente automática de lesiones difusas de linfoma de células B grandes en FDGPET/CT 3D para la predicción del volumen metabólico total del tumor utilizando una red neuronal convolucional". En: Revista europea de medicina nuclear e imágenes moleculares 48.5 (mayo de 2021), págs. 1362-1370. ISSN: 1619-7089.
[13] S. Ahamed et al. “Una red neuronal convolucional U-Net con pérdida de dados multiclase para la segmentación automatizada de tumores y ganglios linfáticos a partir de imágenes PET/CT de cáncer de cabeza y cuello”. En: Segmentación de tumores de cabeza y cuello y predicción de resultados. Ed. por V. Andrearczyk et al. Cham: Springer Nature Suiza, 2023, págs. 94-106. ISBN: 978-3-031-27420-6.
[14] S. Gatidis et al. "Un conjunto de datos de FDG-PET/CT de cuerpo entero con lesiones tumorales anotadas manualmente". En: Datos científicos 9.1 (octubre de 2022), p. 601. ISSN: 2052-4463.
[15] M. Pop y col. "Cuantificación del ventrículo izquierdo mediante U-Net residual". Inglés. En: vol. 11395. Atlas estadísticos y modelos computacionales del corazón. Desafíos de segmentación auricular y cuantificación del VI. Suiza: Springer International Publishing AG, 2019, págs. 371–380. ISBN: 0302-9743.
[16] A. Mironenko. “Segmentación de tumores cerebrales por resonancia magnética 3D mediante regularización del codificador automático”. Inglés. En: Lesión cerebral: glioma, esclerosis múltiple, accidente cerebrovascular y lesiones cerebrales traumáticas. Cham: Springer International Publishing, 2019, págs. 311–320. ISBN: 0302-9743.
[17] F. Isensee et al. "nnU-Net: un método autoconfigurable para la segmentación de imágenes biomédicas basada en aprendizaje profundo". En: Nature Methods 18.2 (diciembre de 2020), págs.
[18] A. Hatamizadeh et al. "Swin UNETR: Transformadores Swin para la segmentación semántica de tumores cerebrales en imágenes de resonancia magnética". Inglés. En: (2022).
[19] MJ Cardoso et al. MONAI: un marco de código abierto para el aprendizaje profundo en la atención sanitaria. 2022. arXiv: 2211. 02701 [cs.LG].
[20] S. Ahamed et al. "Hacia una segmentación mejorada de las lesiones utilizando una red neuronal 3D entrenada en parches recortados de resolución múltiple de imágenes PET de linfoma". En: Journal of Nuclear Medicine 64, suplemento 1 (2023), P1360 – P1360. ISSN: 0161-5505.
[21] JL Fleiss. "Medición del acuerdo de escala nominal entre muchos evaluadores". Inglés. En: Boletín psicológico 76.5 (1971), págs. 378–382.
[22] AK Jha et al. “Medicina nuclear e inteligencia artificial: mejores prácticas para la evaluación (las directrices RELAINCE)”. es. En: J. Nucl. Medicina. 63,9 (septiembre de 2022), págs. 1288-1299.
[23] N. Hasani y otros. “Inteligencia artificial en imágenes PET de linfoma: una revisión del alcance (tendencias actuales y direcciones futuras)”. En: Clínicas PET 17.1 (1 de enero), págs. ISSN: 1556-8598.
[24] SK Warfield y otros. “Estimación simultánea del nivel de verdad y rendimiento (STAPLE): un algoritmo para la validación de la segmentación de imágenes”. es. En: IEEE Trans. Medicina. Imaging 23.7 (julio de 2004), págs. 903–921.
Este documento es