paint-brush
Détection de la violence dans les vidéos : bibliographiepar@kinetograph

Détection de la violence dans les vidéos : bibliographie

Trop long; Pour lire

Dans cet article, les chercheurs proposent un système de détection automatique de la violence dans les vidéos, utilisant des indices audio et visuels pour la classification.
featured image - Détection de la violence dans les vidéos : bibliographie
Kinetograph: The Video Editing Technology Publication HackerNoon profile picture
0-item


Auteurs:

(1) Praveen Tirupattur, Université de Floride centrale.

Tableau des liens

Bibliographie

[1] E. Acar, S. Spiegel, S. Albayrak et D. Labor. Tâche d'impact de Mediaeval 2011 : Détection de scènes violentes combinant des fonctionnalités audio et visuelles avec svm. Dans MédiaEval, 2011.


[2] R. Blake et M. Shiffrar. Perception du mouvement humain. Ann. Rév. Psychol., 58 : 47-73, 2007.


[3] Blog-FB. Statistiques Facebook, 2015. URL http://media.fb.com/2015/01/07/what-the-shift-to-video-means-for-creators/. En ligne : consulté le 8 janvier 2016.


[4] D. Borth, R. Ji, T. Chen, T. Breuel et S.-F. Chang. Ontologie de sentiments visuels à grande échelle et détecteurs utilisant des paires de noms d'adjectifs. Dans Actes de la 21e conférence internationale de l'ACM sur le multimédia, pages 223-232. ACM, 2013.


[5] G. Bradski. Ouvrircv. Journal des outils logiciels du Dr Dobb, 2000.


[6] BJ Bushman et LR Huesmann. Effets à court et à long terme des médias violents sur l'agression chez les enfants et les adultes. Archives de pédiatrie et de médecine de l'adolescence, 160(4):348-352, 2006.


[7] L.-H. Cai, L. Lu, A. Hanjalic, H.-J. Zhang et L.-H. Caï. Un cadre flexible pour la détection des effets audio clés et l'inférence du contexte auditif. Traitement de l'audio, de la parole et du langage, IEEE Transactions on, 14(3):1026-1039, 2006.


[8] Y. Chan, R. Harvey et D. Smith. Construire des systèmes pour bloquer la pornographie. Dans Challenge of Image Retrieval, série BCS Electronic Workshops in Computing, pages 34 à 40, 1999.


[9] C.-C. Chang et C.-J. Lin. LIBSVM : Une bibliothèque pour les machines à vecteurs de support. ACM Transactions on Intelligent Systems and Technology, 2:27:1–27:27, 2011. Logiciel disponible sur http://www.csie.ntu.edu.tw/~cjlin/libsvm.


[10] M.-y. Chen et A. Hauptmann. Mosift : Reconnaître les actions humaines dans les vidéos de surveillance. 2009.


[11] W.-H. Cheng, W.-T. Chu et J.-L. Wu. Détection de contexte sémantique basée sur des modèles audio hiérarchiques. Dans Actes du 5e atelier international ACM SIGMM sur la recherche d'informations multimédia, pages 109-115. ACM, 2003.


[12] C. Clarin, J. Dionisio, M. Echavez et P. Naval. Dove : Détection de la violence cinématographique à l'aide de l'analyse de l'intensité du mouvement sur la peau et le sang. PCSC, 6 : 150-156, 2005.


[13] TJ Clarke, MF Bradshaw, DT Field, SE Hampson, D. Rose et al. La perception de l'émotion à partir du mouvement du corps dans des affichages ponctuels de dialogue interpersonnel. Perception-Londres, 34(10):1171-1180, 2005.


[14] A. Datta, M. Shah et NDV Lobo. Détection de la violence interpersonnelle dans les données vidéo. Dans Pattern Recognition, 2002. Actes. 16e Conférence internationale sur, volume 1, pages 433-438. IEEE, 2002.


[15] C.-H. Demarty, C. Penet, G. Gravier et M. Soleymani. La tâche d’impact médiévale de 2011. 2010.


[16] C.-H. Demarty, C. Penet, G. Gravier et M. Soleymani. Une campagne de benchmarking pour la détection multimodale de scènes violentes dans les films. Dans Computer Vision–ECCV 2012. Ateliers et démonstrations, pages 416-425. Springer, 2012.


[17] C.-H. Demarty, B. Ionescu, Y.-G. Jiang, VL Quang, M. Schedl et C. Penet. Benchmarking de la détection de scènes violentes dans les films. Dans Indexation multimédia basée sur le contenu (CBMI), 12e atelier international 2014, pages 1 à 6. IEEE, 2014.


[18] C.-H. Demarty, C. Penet, B. Ionescu, G. Gravier et M. Soleymani. Détection de la violence multimodale dans les films hollywoodiens : état de l'art et benchmarking. Dans Fusion en vision par ordinateur, pages 185 à 208. Springer, 2014.


[19] C.-H. Demarty, C. Penet, M. Soleymani et G. Gravier. Vsd, un ensemble de données publiques pour la détection de scènes violentes dans les films : conception, annotation, analyse et évaluation. Outils et applications multimédias, pages 1 à 26, 2014.


[20] AP Dempster, NM Laird et DB Rubin. Vraisemblance maximale à partir de données incomplètes via l'algorithme em. Journal de la société royale de statistique. Série B (méthodologique), pages 1 à 38, 1977.


[21] O. Deniz, I. Serrano, G. Bueno et T. Kim. Détection rapide de la violence en vidéo. Dans la 9e Conférence internationale sur la théorie et les applications de la vision par ordinateur (VISAPP), 2014.


[22] F. Eyben et B. Schuller. opensmile :) : l'extracteur de fonctionnalités multimédia à grande échelle open source de Munich. ACM SIGMultimedia Records, 6(4):4-13, 2015.


[23] F. Eyben, F. Weninger, N. Lehment, B. Schuller et G. Rigoll. Récupération vidéo affective : détection de la violence dans les films hollywoodiens par extraction de caractéristiques segmentaires à grande échelle. PloS un, 8(12):e78506, 2013.


[24] G. Farneback. Estimation de mouvement à deux images basée sur l'expansion polynomiale. Dans Analyse d'images, pages 363 à 370. Springer, 2003.


[25] M. Inondation. Les méfaits de l’exposition à la pornographie chez les enfants et les jeunes. Revue sur la maltraitance des enfants, 18(6):384-400, 2009.


[26] P. Gill, M. Arlitt, Z. Li et A. Mahanti. Caractérisation du trafic Youtube : une vue du bord. Dans Actes de la 7e conférence ACM SIGCOMM sur la mesure Internet, pages 15-28. ACM, 2007.


[27] Y. Gong, W. Wang, S. Jiang, Q. Huang et W. Gao. Détection de scènes violentes dans des films par des signaux auditifs et visuels. Dans Advances in Multimedia Information Processing-PCM 2008, pages 317 à 326. Springer, 2008.


[28] T. Hassner, Y. Itcher et O. Kliper-Gross. Flux violents : Détection en temps réel des comportements violents des foules. Dans les ateliers de vision par ordinateur et de reconnaissance de formes (CVPRW), conférence 2012 de l'IEEE Computer Society, pages 1 à 6. IEEE, 2012.


[29] S.Hidaka. Identifier les signaux cinématiques pour la reconnaissance du style d'action. Société des sciences cognitives, 2012.


[30] T. Hofmann. Apprentissage non supervisé par analyse sémantique latente probabiliste. Apprentissage automatique, 42(1-2) :177-196, 2001.


[31] LR Huesmann et LD Eron. La télévision et l'enfant agressif : une comparaison transnationale. Routledge, 2013.


[32] LR Huesmann et LD Taylor. Le rôle de la violence médiatique dans les comportements violents. Ann. Rév. Santé publique, 27 : 393-415, 2006.


[33] Y.-G. Jiang, Q. Dai, CC Tan, X. Xue et C.-W. Ngo. L'équipe Shanghai-Hong Kong à mediaeval2012 : Détection de scènes violentes à l'aide de fonctionnalités basées sur la trajectoire. Dans MédiaEval, 2012.


[34] Y.-G. Jiang, Q. Dai, X. Xue, W. Liu et C.-W. Ngo. Modélisation basée sur la trajectoire des actions humaines avec des points de référence de mouvement. Dans Vision par ordinateur – ECCV 2012, pages 425 à 438. Springer, 2012.


[35] MJ Jones et JM Rehg. Modèles statistiques de couleurs avec application à la détection cutanée. Journal international de vision par ordinateur, 46(1):81-96, 2002.


[36] V. Lam, D.-D. Le, S. Phan, S. Satoh, DA Duong et TD Ngo. Évaluation de fonctionnalités de bas niveau pour détecter des scènes violentes dans des vidéos. Dans Soft Computing and Pattern Recognition (SoCPaR), Conférence internationale 2013, pages 213-218. IEEE, 2013.


[37] I. Laptev. Sur les points d’intérêt spatio-temporels. Journal international de vision par ordinateur, 64(2-3) :107-123, 2005.


[38] J. Lin et W. Wang. Détection de violence faiblement supervisée dans les films avec co-formation audio et vidéo. Dans Advances in Multimedia Information ProcessingPCM 2009, pages 930 à 935. Springer, 2009.


[39] DG Lowe. Caractéristiques d'image distinctives à partir de points clés invariants d'échelle. Revue internationale de vision par ordinateur, 60(2):91-110, 2004.


[40] KJ Mitchell, D. Finkelhor et J. Wolak. L'exposition des jeunes à du matériel sexuel non désiré sur Internet, une enquête nationale sur les risques, l'impact et la prévention. Jeunesse et société, 34(3):330-358, 2003.


[41] J. Nam, M. Alghoniemy et AH Tewfik. Caractérisation de scènes violentes basée sur du contenu audiovisuel. Dans Traitement d'images, 1998. ICIP 98. Actes. Conférence internationale de 1998 sur, volume 1, pages 353-357. IEEE, 1998.


[42] EB Nievas, OD Suarez, GB García et R. Sukthankar. Détection de violence en vidéo à l'aide de techniques de vision par ordinateur. Dans Analyse informatique des images et des modèles, pages 332 à 339. Springer, 2011.


[43] D. Flux Optique. Implémentation du flux optique, 2015. URL http://docs.opencv.org/modules/video/doc/motion_analysis_and_object_tracking.html#calcopticalflowfarneback. En ligne : consulté le 21 octobre 2015.


[44] C. Parker. Une analyse des mesures de performance pour les classificateurs binaires. Dans Data Mining (ICDM), 11e conférence internationale de l'IEEE 2011, pages 517 à 526. IEEE, 2011.


[45] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos , D. Cournapeau, M. Brucher, M. Perrot et E. Duchesnay. Scikit-learn : Apprentissage automatique en Python. Journal de recherche sur l'apprentissage automatique, 12 : 2825-2830, 2011.


[46] J. Platt et coll. Sorties probabilistes pour les machines à vecteurs de support et comparaisons avec les méthodes de vraisemblance régularisée. Avancées dans les classificateurs à grande marge, 10(3):61-74, 1999.


[47] M. Pogrebnyak, D. Timoshenko, I. Burcev et A. Kulinkin. Détection de contenu adulte en vidéo avec l'utilisation du GPU nvidia. 2015.


[48] L. Richardson. Belle soupe. Crummy : Le site, 2013. URL http://www. crummy.com/software/BeautifulSoup/.


[49] CJV Rijsbergen. Récupération de l'information. Butterworth-Heinemann, Newton, MA, États-Unis, 2e édition, 1979. ISBN 0408709294.


[50] M. Saerbeck et C. Bartneck. Perception de l'affect provoqué par le mouvement du robot. Dans Actes de la 5e conférence internationale ACM/IEEE sur l'interaction homme-robot, pages 53-60. Presse IEEE, 2010.


[51] M. Schedl, M. Sjoberg, I. Mironica, B. Ionescu, VL Quang et Y.-G. Jiang. Vsd2014 : Un ensemble de données pour la détection de scènes violentes dans les films hollywoodiens et les vidéos Web. Sixième sens, 6 (2,00) : 12-40.


[52] C. Schulze, D. Henter, D. Borth et A. Dengel. Détection automatique des médias CSA par fusion de fonctionnalités multimodales pour le support des forces de l'ordre. Dans Actes de la Conférence internationale sur la recherche multimédia, page 353. ACM, 2014.


[53] M. Sokolova et G. Lapalme. Une analyse systématique des mesures de performance pour les tâches de classification. Traitement et gestion de l'information, 45(4):427-437, 2009.


[54] G. Étincelles. Recherche sur les effets médiatiques : un aperçu de base. Apprentissage Cengage, 2015.


[55] A. Tompkins. Les effets psychologiques des médias violents sur les enfants. Journal AllPsych, 14, 2003.


[56] M. Wesch. Statistiques Youtube, 2008. URL http://mediatedcultures.net/pensées/youtube-statistics/. En ligne : consulté le 8 janvier 2016.


[57] Wikipédia. Flux optique, 2015. URL https://en.wikipedia.org/wiki/Optical_flow. En ligne : consulté le 21 octobre 2015.


Cet article est disponible sur arxiv sous licence CC 4.0.