tác giả:
(1) Zhihang Ren, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);
(2) Jefferson Ortega, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);
(3) Yifan Wang, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);
(4) Zhimin Chen, Đại học California, Berkeley (Email: [email protected]);
(5) Yunhui Guo, Đại học Texas tại Dallas (Email: [email protected]);
(6) Stella X. Yu, Đại học California, Berkeley và Đại học Michigan, Ann Arbor (Email: [email protected]);
(7) David Whitney, Đại học California, Berkeley (Email: [email protected]).
Trong nghiên cứu này, chúng tôi đã đề xuất tập dữ liệu video lớn dựa trên bối cảnh đầu tiên, VEATIC , để dự đoán hóa trị và kích thích liên tục. Nhiều hình ảnh trực quan khác nhau cho thấy sự đa dạng của tập dữ liệu và tính nhất quán của các chú thích của chúng tôi. Chúng tôi cũng đề xuất một thuật toán cơ sở đơn giản để giải quyết thách thức này. Kết quả thực nghiệm chứng minh tính hiệu quả của phương pháp đề xuất của chúng tôi và bộ dữ liệu VEATIC.
Bài viết này có sẵn trên arxiv theo giấy phép CC 4.0.