Авторы:
(1) Правин Тирупаттур, Университет Центральной Флориды.
В последние годы резко возросло количество видеоконтента, загружаемого в социальные сети и на сайты обмена видео, такие как Facebook и Youtube. В результате этого также увеличился риск того, что дети столкнутся с контентом для взрослых и насилием в Интернете. Для решения этой проблемы в данной работе предлагается подход к автоматическому обнаружению насильственного контента в видео. Здесь также предпринята новая попытка определить категорию насилия, присутствующую в видео. Система, которая может автоматически обнаруживать насилие как в голливудских фильмах, так и в видеороликах из Интернета, чрезвычайно полезна не только для родительского контроля, но и для приложений, связанных с рейтингами фильмов, видеонаблюдением, классификацией жанров и так далее.
Здесь для обнаружения насилия используются как аудио, так и визуальные функции. Функции MFCC используются в качестве звуковых сигналов. Функции «Кровь», «Движение» и SentiBank используются в качестве визуальных подсказок. Бинарные классификаторы SVM обучены каждой из этих функций для обнаружения насилия. Позднее объединение с использованием взвешенной суммы классификационных баллов выполняется для получения окончательных классификационных баллов для каждого целевого класса насилия, установленного системой. Для определения оптимальных весов для каждого из классов насилия используется подход, основанный на поиске по сетке. Общедоступные наборы данных, в основном «Обнаружение сцен насилия» (VSD), используются для обучения классификаторов, расчета веса и тестирования. Производительность системы оценивается по двум задачам классификации: многоклассовой классификации и бинарной классификации. Результаты, полученные по бинарной классификации, лучше базовых результатов MediaEval-2014.
Этот документ доступен на arxiv под лицензией CC 4.0.