Bài viết này có sẵn trên arxiv theo giấy phép CC 4.0.
tác giả:
(1) Zhihang Ren, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);
(2) Jefferson Ortega, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);
(3) Yifan Wang, Đại học California, Berkeley và các tác giả này đã đóng góp như nhau cho công trình này (Email: [email protected]);
(4) Zhimin Chen, Đại học California, Berkeley (Email: [email protected]);
(5) Yunhui Guo, Đại học Texas tại Dallas (Email: [email protected]);
(6) Stella X. Yu, Đại học California, Berkeley và Đại học Michigan, Ann Arbor (Email: [email protected]);
(7) David Whitney, Đại học California, Berkeley (Email: [email protected]).
Tổng cộng, chúng tôi có 192 người tham gia chú thích các video trong bộ dữ liệu VEATIC. 84 người tham gia đã chú thích ID video 0-82. Một trăm tám người tham gia đã chú thích ID video 83-123 trước khi lập kế hoạch cho bộ dữ liệu VEATIC. Cụ thể, 51 người tham gia chú thích ID video 83-94, 25 người tham gia chú thích ID video 95-97 và 32 người tham gia chú thích ID video 98-123.
Một điểm mới khác của tập dữ liệu VEATIC là nó chứa các video có các ký tự tương tác và xếp hạng cho các ký tự riêng biệt trong cùng một video. Những video này là những video có ID video 98-123. Đối với mỗi cặp video liên tiếp, các khung hình video hoàn toàn giống nhau nhưng xếp hạng cảm xúc liên tục được chú thích dựa trên các ký tự được chọn khác nhau. Hình 11 cho thấy một ví dụ. Trong nghiên cứu này, trước tiên chúng tôi đề xuất quy trình chú thích này vì nó cung cấp cho các thuật toán trong tương lai một cách để kiểm tra xem liệu các mô hình có tìm hiểu cảm xúc của các ký tự được chọn hay không dựa trên sự tương tác giữa các ký tự và thông tin ngữ cảnh giống hệt nhau. Một thuật toán nhận dạng cảm xúc tốt sẽ giải quyết được tình huống phức tạp này.
Bài viết này có sẵn trên arxiv theo giấy phép CC 4.0.