paint-brush
Vers un essai virtuel précis et réaliste grâce à la correspondance de formes : conclusions et référencespar@polyframe
194 lectures

Vers un essai virtuel précis et réaliste grâce à la correspondance de formes : conclusions et références

Trop long; Pour lire

Les chercheurs améliorent les méthodes d'essai virtuel en utilisant un nouvel ensemble de données pour choisir des modèles cibles et former des warpers spécialisés, améliorant ainsi le réalisme et la précision.
featured image - Vers un essai virtuel précis et réaliste grâce à la correspondance de formes : conclusions et références
Polyframe Peer Reviewed Publication HackerNoon profile picture
0-item

Auteurs:

(1) Kedan Li, Université de l'Illinois à Urbana-Champaign ;

(2) Min Jin Chong, Université de l'Illinois à Urbana-Champaign ;

(3) Jingen Liu, JD AI Research ;

(4) David Forsyth, Université de l'Illinois à Urbana-Champaign.

Tableau des liens

5. Conclusions

Dans cet article, nous proposons deux modifications générales au cadre d'essai virtuel : (a) choisir soigneusement la paire produit-modèle à transférer à l'aide d'une incorporation de forme et (b) combiner plusieurs chaînes coordonnées à l'aide de l'inpainting. Nos résultats montrent que les deux modifications conduisent à une amélioration significative de la qualité de la génération. Des exemples qualitatifs démontrent notre capacité à préserver avec précision les détails des vêtements. Cela entraîne des difficultés pour les acheteurs à faire la distinction entre les images de modèles réelles et synthétisées, comme le montrent les résultats de l'étude des utilisateurs.

Les références

  1. Alp Guler, R., Neverova, N., Kokkinos, I. : Densepose : estimation de la pose humaine dense dans la nature. Dans : La conférence IEEE sur la vision par ordinateur et la reconnaissance de formes (CVPR) (juin 2018)


  2. Ayush, K., Jandial, S., Chopra, A., Krishnamurthy, B. : Promotion de l'essai virtuel via l'apprentissage auxiliaire de la segmentation humaine. Dans : Ateliers de la Conférence internationale de l'IEEE sur la vision par ordinateur (ICCV) (octobre 2019)


  3. Belongie, S., Malik, J., Puzicha, J. : Correspondance de formes et reconnaissance d'objets à l'aide de contextes de forme. PAMI (2002)


  4. Bogo, F., Kanazawa, A., Lassner, C., Gehler, P., Romero, J., Black, MJ : Keep it SMPL : estimation automatique de la pose et de la forme humaine 3D à partir d'une seule image. Dans : ECCV (2016)


  5. Brock, A., Donahue, J., Simonyan, K. : Formation gan à grande échelle pour la synthèse d'images naturelles haute fidélité. Préimpression arXiv arXiv:1809.11096 (2018)


  6. Chen, LC, Zhu, Y., Papandreou, G., Schroff, F., Adam, H. : Encodeur-décodeur avec convolution atreuse séparable pour la segmentation sémantique d'images. Dans : ECCV (2018)


  7. Chen, M., Qin, Y., Qi, L., Sun, Y. : Amélioration de la détection des repères de mode grâce à l'amélioration des fonctionnalités de double attention. Dans : Ateliers ICCV (2019)


  8. Chen, W., Wang, H., Li, Y., Su, H., Wang, Z., Tu, C., Lischinski, D., Cohen-Or, D., Chen, B. : Synthèse d'images d'entraînement pour améliorer l'estimation de la pose humaine en 3D (2015)


  9. Chong, MJ, Forsyth, D. : Fid et score de démarrage effectivement impartiaux et où les trouver. Préimpression arXiv arXiv:1911.07023 (2019)


  10. Danerek, R., Dibra, E., Oztireli, AC, Ziegler, R., Gross, MH : Deepgarment : estimation de la forme d'un vêtement en 3D à partir d'une seule image. Calculer. Graphique. Forum (2017)


  11. Dong, H., Liang, X., Gong, K., Lai, H., Zhu, J., Yin, J. : Gan de déformation à portail souple pour la synthèse d'images de personnes guidées par la pose. Dans : NeurIPS (2018)


  12. Dong, H., Liang, X., Wang, B., Lai, H., Zhu, J., Yin, J. : Vers un réseau d'essais virtuels guidés multi-poses. Dans : ICCV (2019)


  13. Grigor'ev, AK, Sevastopolsky, A., Vakhitov, A., Lempitsky, VS : Inpainting de texture basé sur des coordonnées pour la génération d'images humaines guidées par la pose. CVPR (2019)


  14. Guan, P., Reiss, L., Hirshberg, D., Weiss, A., Black, M. : Drapé : Habiller toute personne. Transactions ACM sur graphiques - TOG (2012)


  15. Han, X., Hu, X., Huang, W., Scott, MR : Clothflow : Un modèle basé sur le flux pour la génération de personnes habillées. Dans : ICCV (2019)


  16. Han, X., Wu, Z., Huang, W., Scott, MR, Davis, LS : Inpainting d'images de mode compatibles et diversifiées (2019)


  17. Han, X., Wu, Z., Wu, Z., Yu, R., Davis, LS : Viton : Un réseau d'essai virtuel basé sur l'image. Dans : CVPR (2018)


  18. Heusel, M., Ramsauer, H., Unterthiner, T., Nessler, B., Hochreiter, S. : Les Gans formés par une règle de mise à jour à deux échelles de temps convergent vers un équilibre de Nash local. Dans : Progrès dans les systèmes de traitement de l'information neuronale. pages 6626 à 6637 (2017)


  19. Hsiao, WL, Grauman, K. : S'habiller pour diverses morphologies. ArXiv (2019)


  20. Hsiao, WL, Katsman, I., Wu, CY, Parikh, D., Grauman, K. : Fashion++ : modifications minimales pour l'amélioration des tenues. Dans : Dans les actes de la Conférence internationale de l'IEEE sur la vision par ordinateur (ICCV) (2019)


  21. Hsieh, CW, Chen, CY, Chou, CL, Shuai, HH, Liu, J., Cheng, WH : Fashionon : essai virtuel basé sur des images à guidage sémantique avec des informations détaillées sur les humains et les vêtements. Dans : MM '19 (2019)

  22. HyugJae, Lee, R., Kang, M., Cho, M., Park, G. : La-viton : Un réseau pour des essais virtuels attrayants. Dans : Ateliers ICCV (2019)


  23. Jaderberg, M., Simonyan, K., Zisserman, A., kavukcuoglu, k. : Réseaux de transformateurs spatiaux. Dans : NeurIPS (2015)


  24. Jandial, S., Chopra, A., Ayush, K., Hemani, M., Kumar, A., Krishnamurthy, B. : Sievenet : Un cadre unifié pour un essai virtuel robuste basé sur des images. Dans : WACV (2020)


  25. Jeong, MH, Han, DH, Ko, HS : Capture de vêtement à partir d'une photographie. Journal de visualisation et d'animation par ordinateur (2015)


  26. Ji, D., Kwon, J., McFarland, M., Savarese, S. : Mormorphing en vue profonde. Dans : CVPR (2017)


  27. Kanazawa, A., Black, MJ, Jacobs, DW, Malik, J. : Récupération de bout en bout de la forme et de la pose humaines. CVPR (2018)


  28. Kanazawa, A., Jacobs, D., Chandraker, M. : Warpnet : correspondance faiblement supervisée pour la reconstruction à vue unique. Dans : CVPR (2016)


  29. Karras, T., Laine, S., Aila, T. : Une architecture génératrice basée sur le style pour les réseaux adverses génératifs. Dans : Actes de la conférence IEEE sur la vision par ordinateur et la reconnaissance de formes. pages 4401 à 4410 (2019)


  30. Lin, CH, Yumer, E., Wang, O., Shechtman, E., Lucey, S. : St-gan : Réseaux contradictoires génératifs de transformateurs spatiaux pour la composition d'images. Dans : CVPR (2018)


  31. Liu, G., Reda, FA, Shih, KJ, Wang, TC, Tao, A., Catanzaro, B. : Peinture d'images pour trous irréguliers utilisant des convolutions partielles. Dans : ECCV (2018)


  32. Liu, KH, Chen, TY, Chen, CS : Mvc : Un ensemble de données pour la récupération de vêtements invariants par vue et la prédiction d'attributs. Dans : ICMR (2016)


  33. Liu, Z., Luo, P., Qiu, S., Wang, X., Tang, X. : Deepfashion : optimiser la reconnaissance et la récupération de vêtements robustes avec des annotations riches. Dans : CVPR (2016)


  34. McKinsey : État de l'industrie de la mode 2019 (2019)


  35. Natsume, R., Saito, S., Huang, Z., Chen, W., Ma, C., Li, H., Morishima, S. : Siclope : Matériaux supplémentaires pour les personnes habillées basées sur la silhouette. Dans : CVPR (2019)


  36. Neverova, N., Gler, RA, Kokkinos, I. : Transfert de pose dense. Dans : ECCV (2018)


  37. Raffiee, AH, Sollami, M. : Garmentgan : Transfert de mode contradictoire photo-réaliste (2020)


  38. Raj, A., Sangkloy, P., Chang, H., Hays, J., Ceylan, D., Lu, J. : Swapnet : transfert de vêtements basé sur l'image. Dans : ECCV (2018)


  39. Rocco, I., Arandjelovi´c, R., Sivic, J. : Architecture de réseau neuronal convolutif pour la correspondance géométrique. Dans : CVPR (2017)


  40. Saito, S., Huang, Z., Natsume, R., Morishima, S., Kanazawa, A., Li, H. : Pifu : Fonction implicite alignée sur les pixels pour la numérisation humaine habillée haute résolution. ICCV (2019)


  41. Schroff, F., Kalenichenko, D., Philbin, J. : Facenet : une intégration unifiée pour la reconnaissance faciale et le clustering. Dans : CVPR (2015)


  42. Song, D., Li, T., Mao, Z., Liu, A. : Sp-viton : réseau d'essai virtuel basé sur des images préservant la forme. Outils et applications multimédias (2019)


  43. Suzuki, S., Abe, K. : Analyse structurale topologique d'images binaires numérisées par suivi de bordure. Vision par ordinateur, graphisme et traitement d'images (1985)


  44. Vaccaro, K., Agarwalla, T., Shivakumar, S., Kumar, R. : Concevoir l'avenir de la mode personnelle. Dans : Actes de la conférence CHI 2018 sur les facteurs humains dans les systèmes informatiques (2018)


  45. Wang, B., Zheng, H., Liang, X., Chen, Y., Lin, L. : Vers un réseau d'essai virtuel basé sur des images préservant les caractéristiques. Dans : Actes de la Conférence européenne sur la vision par ordinateur (ECCV) (2018)


  46. Wang, J., Zhang, W., Liu, WH, Mei, T. : Jusqu'au moindre détail : essai virtuel avec sculpture détaillée. ArXiv (2019)


  47. Wu, Z., Lin, G., Tao, Q., Cai, J. : M2e-try sur net : La mode du mannequin à tout le monde. Dans : MM '19 (2018)


  48. Yang, C., Lu, X., Lin, Z., Shechtman, E., Wang, O., Li, H. : Inpainting d'images haute résolution utilisant la synthèse de patchs neuronaux multi-échelles. Dans : CVPR (2017)


  49. Yu, J., Lin, Z., Yang, J., Shen, X., Lu, X., Huang, TS : Inpainting d'images de forme libre avec convolution fermée. Dans : ICCV (2019)


  50. Yu, J., Lin, ZL, Yang, J., Shen, X., Lu, X., Huang, TS : Peinture d'images génératives avec attention contextuelle. Dans : CVPR (2018)


  51. Yu, L., Zhong, Y., Wang, X. : Réseau d'essai virtuel basé sur la peinture pour le transfert sélectif de vêtements. Accès IEEE (2019)


  52. Yu, L., Zhong, Y., Wang, X. : Réseau d'essai virtuel basé sur la peinture pour le transfert sélectif de vêtements. Accès IEEE (2019)


  53. Yu, R., Wang, X., Xie, X. : Vtnfp : Un réseau d'essayage virtuel basé sur l'image avec préservation des caractéristiques du corps et des vêtements


  54. Zhang, H., Goodfellow, I., Metaxas, D., Odena, A. : Réseaux contradictoires génératifs d'auto-attention. Préimpression arXiv arXiv:1805.08318 (2018)


  55. Zheng, N., Song, X., Chen, Z., Hu, L., Cao, D., Nie, L. : Essayer virtuellement de nouveaux vêtements avec des poses arbitraires. Dans : MM '19 (2019)


  56. Zheng, S., Yang, F., Kiapour, MH, Piramuthu, R. : Modanet : Un ensemble de données de mode de rue à grande échelle avec des annotations de polygones. Dans : ACM Multimédia (2018)


  57. Zhu, S., Fidler, S., Urtasun, R., Lin, D., Chen, CL : Soyez votre propre prada : synthèse de mode avec cohérence structurelle. Dans : CVPR (2017)


Cet article est disponible sur arxiv sous licence CC BY-NC-SA 4.0 DEED.