tác giả:
(1) Shadab Ahamed, Đại học British Columbia, Vancouver, BC, Canada, Viện Nghiên cứu Ung thư BC, Vancouver, BC, Canada. Anh cũng là Thành viên tăng tốc của Mitacs (tháng 5 năm 2022 - tháng 4 năm 2023) với Microsoft AI for Good Lab, Redmond, WA, USA (e-mail: [email protected]);
(2) Yixi Xu, Microsoft AI cho Good Lab, Redmond, WA, USA;
(3) Claire Gowdy, Bệnh viện Nhi đồng BC, Vancouver, BC, Canada;
(4) Joo H. O, Bệnh viện St. Mary, Seoul, Hàn Quốc;
(5) Ingrid Bloise, BC Cancer, Vancouver, BC, Canada;
(6) Don Wilson, BC Cancer, Vancouver, BC, Canada;
(7) Patrick Martineau, BC Cancer, Vancouver, BC, Canada;
(8) Francois Benard, BC Cancer, Vancouver, BC, Canada;
(9) Fereshteh Yousefirizi, Viện Nghiên cứu Ung thư BC, Vancouver, BC, Canada;
(10) Rahul Dodhia, Microsoft AI cho Good Lab, Redmond, WA, Hoa Kỳ;
(11) Juan M. Lavista, Microsoft AI cho Good Lab, Redmond, WA, Hoa Kỳ;
(12) William B. Weeks, Microsoft AI cho Good Lab, Redmond, WA, USA;
(13) Carlos F. Uribe, Viện Nghiên cứu Ung thư BC, Vancouver, BC, Canada và Đại học British Columbia, Vancouver, BC, Canada;
(14) Arman Rahmim, Viện Nghiên cứu Ung thư BC, Vancouver, BC, Canada và Đại học British Columbia, Vancouver, BC, Canada.
Trong nghiên cứu này, chúng tôi đã đánh giá các kiến trúc mạng lưới thần kinh khác nhau để tự động hóa việc phân đoạn tổn thương ung thư hạch trong hình ảnh PET/CT trên nhiều bộ dữ liệu. Chúng tôi đã kiểm tra khả năng tái lập của các biện pháp tổn thương, cho thấy sự khác biệt giữa các mạng, nêu bật tính phù hợp của chúng đối với các mục đích sử dụng lâm sàng cụ thể. Ngoài ra, chúng tôi đã giới thiệu ba tiêu chí phát hiện tổn thương để đánh giá hiệu suất mạng ở cấp độ từng tổn thương, nhấn mạnh mức độ phù hợp lâm sàng của chúng. Cuối cùng, chúng tôi đã thảo luận về những thách thức liên quan đến tính nhất quán thực tế cơ bản và nhấn mạnh tầm quan trọng của việc có giao thức được xác định rõ ràng để phân khúc. Công trình này cung cấp những hiểu biết sâu sắc có giá trị về tiềm năng và hạn chế của deep learning trong việc phân chia tổn thương ung thư hạch và nhấn mạnh sự cần thiết của các phương pháp chú thích được tiêu chuẩn hóa để nâng cao giá trị nghiên cứu và ứng dụng lâm sàng.
[1] SF Barrington và cộng sự. “FDG PET để theo dõi trị liệu ở bệnh u lympho Hodgkin và không Hodgkin”. Trong: Tạp chí Y học Hạt nhân và Hình ảnh Phân tử Châu Âu 44.1 (tháng 8 năm 2017), trang 97–110. ISSN: 1619-7089.
[2] K. Okuyucu và cộng sự. “Ước tính tiên lượng dưới ánh sáng của các thông số khối u chuyển hóa trên FDG-PET/CT ban đầu ở bệnh nhân ung thư hạch ngoại bào nguyên phát”. vi. Trong: Radiol. Oncol. 50.4 (tháng 12 năm 2016), trang 360–369.
[3] N. Wu và cộng sự. “Mạng lưới thần kinh sâu cải thiện hiệu suất của bác sĩ X quang trong sàng lọc ung thư vú”. Trong: Giao dịch của IEEE về Hình ảnh Y tế 39.4 (2020), trang 1184–1194.
[4] C. Yuan và cộng sự. “Phân đoạn u lympho tế bào B lớn lan tỏa trong hình ảnh PET-CT thông qua học tập kết hợp để tổng hợp tính năng”. Trong: Vật lý y học 48.7 (2021), trang 3665–3678.
[5] H. Hu và cộng sự. “Phân đoạn ung thư hạch trong hình ảnh PET dựa trên chiến lược kết hợp nhiều góc nhìn và Conv3D”. Trong: Hội nghị chuyên đề quốc tế lần thứ 17 của IEEE về hình ảnh y sinh (ISBI) năm 2020. 2020, trang 1197–1200.
[6] H. Li và cộng sự. “DenseX-Net: Mô hình toàn diện để phân đoạn ung thư hạch trong hình ảnh PET/CT toàn cơ thể”. Trong: IEEE Access 8 (2020), trang 8004–8018.
[7] L. Liu và cộng sự. “Cải thiện phân đoạn ung thư hạch dựa trên miếng vá đa phương thức với khả năng tăng cường mẫu âm tính và hướng dẫn ghi nhãn trên bản quét PET/CT”. Trong: Hình ảnh y tế đa phương thức đa tầng. Ed. của X. Li và cộng sự. Chăm: Springer Nature Switzerland, 2022, tr. 121–129. ISBN: 978-3-031-18814-5.
[8] CS Constantino và cộng sự. “Đánh giá các phương pháp phân đoạn hoàn toàn tự động dựa trên bán tự động và học sâu trên hình ảnh PET/CT FDG từ bệnh nhân mắc bệnh ung thư hạch: Ảnh hưởng đến đặc điểm khối u”. Trong: Tạp chí Hình ảnh Kỹ thuật số 36.4 (tháng 8 năm 2023), trang 1864–1876. ISSN: 1618-727X.
[9] AJ Weisman và cộng sự. “So sánh 11 phương pháp phân đoạn PET tự động trong bệnh ung thư hạch”. Tiếng Anh. Trong: Vật lý y học & sinh học 65.23 (2020), trang 235019–235019.
[10] AJ Weisman và cộng sự. “Mạng lưới thần kinh chuyển đổi để phát hiện PET/CT tự động về gánh nặng hạch bạch huyết bị bệnh ở bệnh nhân ung thư hạch”. Trong: X quang: Trí tuệ nhân tạo 2.5 (2020), e200016.
[11] C. Jiang và cộng sự. “Phân đoạn khối u dựa trên học sâu và dự đoán tổng thể tích khối u chuyển hóa trong tiên lượng bệnh nhân ung thư hạch tế bào B lan tỏa lớn trong hình ảnh FDG-PET 3D”. Trong: X quang Châu Âu 32.7 (tháng 7 năm 2022), trang 4801–4812. ISSN: 1432-1084.
[12] P. Blanc-Durand và cộng sự. “Phân đoạn hoàn toàn tự động các tổn thương ung thư hạch tế bào B lớn lan tỏa trên FDGPET/CT 3D để dự đoán tổng thể tích khối u chuyển hóa bằng cách sử dụng mạng lưới thần kinh tích chập.” Trong: Tạp chí Y học Hạt nhân và Hình ảnh Phân tử Châu Âu 48.5 (tháng 5 năm 2021), trang 1362–1370. ISSN: 1619-7089.
[13] S. Ahamed và cộng sự. “Mạng lưới thần kinh chuyển đổi U-Net với khả năng mất xúc xắc đa lớp để tự động phân chia khối u và hạch bạch huyết từ hình ảnh PET/CT ung thư đầu và cổ”. Trong: Phân chia khối u ở đầu và cổ và dự đoán kết quả. Ed. bởi V. Andrearczyk và cộng sự. Chăm: Springer Nature Switzerland, 2023, tr. 94–106. ISBN: 978-3-031-27420-6.
[14] S. Gatidis và cộng sự. “Bộ dữ liệu FDG-PET/CT toàn cơ thể với các tổn thương khối u được chú thích thủ công”. Trong: Dữ liệu khoa học 9.1 (tháng 10 năm 2022), tr. 601. ISSN: 2052-4463.
[15] M. Pop và cộng sự. “Định lượng tâm thất trái bằng cách sử dụng U-Net dư”. Tiếng Anh. Trong: tập. 11395. Bản đồ thống kê và mô hình tính toán của tim. Những thách thức về phân đoạn tâm nhĩ và định lượng LV. Thụy Sĩ: Nhà xuất bản Quốc tế Springer AG, 2019, trang 371–380. ISBN: 0302-9743.
[16] A. Myronenko. “Phân đoạn khối u não 3D MRI bằng cách sử dụng chính quy bộ mã hóa tự động”. Tiếng Anh. Trong: Tổn thương não: U thần kinh đệm, Bệnh đa xơ cứng, Đột quỵ và Chấn thương sọ não. Chăm: Nhà xuất bản Quốc tế Springer, 2019, trang 311–320. ISBN: 0302-9743.
[17] F. Isensee và cộng sự. “nnU-Net: phương pháp tự cấu hình để phân đoạn hình ảnh y sinh dựa trên deep learning”. Trong: Phương pháp Tự nhiên 18.2 (Tháng 12 năm 2020), trang 203–211.
[18] A. Hatamizadeh và cộng sự. “Swin UNETR: Máy biến áp Swin để phân đoạn ngữ nghĩa của các khối u não trong hình ảnh MRI”. Tiếng Anh. Trong: (2022).
[19] MJ Cardoso và cộng sự. MONAI: Một khung nguồn mở dành cho việc học sâu trong lĩnh vực chăm sóc sức khỏe. 2022. arXiv: 2211. 02701 [cs.LG].
[20] S. Ahamed và cộng sự. “Hướng tới việc nâng cao khả năng phân đoạn tổn thương bằng cách sử dụng mạng lưới thần kinh 3D được đào tạo trên các mảng hình ảnh PET ung thư hạch được cắt xén đa độ phân giải”. Trong: Tạp chí Y học Hạt nhân 64. bổ sung 1 (2023), P1360–P1360. ISSN: 0161-5505.
[21] JL Fleiss. “Đo lường thỏa thuận quy mô danh nghĩa giữa nhiều người đánh giá”. Tiếng Anh. Trong: Bản tin tâm lý 76.5 (1971), trang 378–382.
[22] AK Jha và cộng sự. “Y học hạt nhân và trí tuệ nhân tạo: Thực hành tốt nhất để đánh giá (hướng dẫn RELAINCE)”. vi. Trong: J. Nucl. Med. 63.9 (tháng 9 năm 2022), trang 1288–1299.
[23] N. Hasani và cộng sự. “Trí tuệ nhân tạo trong chụp ảnh PET ung thư hạch: Đánh giá phạm vi (Xu hướng hiện tại và định hướng tương lai)”. Trong: Phòng khám PET 17.1 (ngày 1 tháng 1), trang 145–174. ISSN: 1556-8598.
[24] SK Warfield và cộng sự. “Ước tính mức hiệu suất và sự thật đồng thời (STAPLE): một thuật toán để xác thực phân đoạn hình ảnh”. vi. Trong: IEEE Trans. Med. Hình ảnh 23.7 (tháng 7 năm 2004), trang 903–921.
Giấy này là