paint-brush
VEATIC: Theo dõi cảm xúc và tác động dựa trên video trong bộ dữ liệu ngữ cảnh: Kết luậntừ tác giả@kinetograph
114 lượt đọc

VEATIC: Theo dõi cảm xúc và tác động dựa trên video trong bộ dữ liệu ngữ cảnh: Kết luận

dài quá đọc không nổi

Trong bài viết này, các nhà nghiên cứu giới thiệu bộ dữ liệu VEATIC để nhận dạng ảnh hưởng của con người, giải quyết các hạn chế trong bộ dữ liệu hiện có, cho phép suy luận dựa trên ngữ cảnh.
featured image - VEATIC: Theo dõi cảm xúc và tác động dựa trên video trong bộ dữ liệu ngữ cảnh: Kết luận
Kinetograph: The Video Editing Technology Publication HackerNoon profile picture
0-item

tác giả:

(1) Zhihang Ren, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);

(2) Jefferson Ortega, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);

(3) Yifan Wang, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);

(4) Zhimin Chen, Đại học California, Berkeley (Email: [email protected]);

(5) Yunhui Guo, Đại học Texas tại Dallas (Email: [email protected]);

(6) Stella X. Yu, Đại học California, Berkeley và Đại học Michigan, Ann Arbor (Email: [email protected]);

(7) David Whitney, Đại học California, Berkeley (Email: [email protected]).

Bảng liên kết

6. Kết luận

Trong nghiên cứu này, chúng tôi đã đề xuất tập dữ liệu video lớn dựa trên bối cảnh đầu tiên, VEATIC , để dự đoán hóa trị và kích thích liên tục. Nhiều hình ảnh trực quan khác nhau cho thấy sự đa dạng của tập dữ liệu và tính nhất quán của các chú thích của chúng tôi. Chúng tôi cũng đề xuất một thuật toán cơ sở đơn giản để giải quyết thách thức này. Kết quả thực nghiệm chứng minh tính hiệu quả của phương pháp đề xuất của chúng tôi và bộ dữ liệu VEATIC.


Bài viết này có sẵn trên arxiv theo giấy phép CC 4.0.