paint-brush
Rumo a um teste virtual preciso e realista por meio da correspondência de formas: conclusões e referênciaspor@polyframe
191 leituras

Rumo a um teste virtual preciso e realista por meio da correspondência de formas: conclusões e referências

Muito longo; Para ler

Os pesquisadores melhoram os métodos de teste virtual usando um novo conjunto de dados para escolher modelos de alvo e treinar warpers especializados, aumentando o realismo e a precisão.
featured image - Rumo a um teste virtual preciso e realista por meio da correspondência de formas: conclusões e referências
Polyframe Peer Reviewed Publication HackerNoon profile picture
0-item

Autores:

(1) Kedan Li, Universidade de Illinois em Urbana-Champaign;

(2) Min Jin Chong, Universidade de Illinois em Urbana-Champaign;

(3) Jingen Liu, JD AI Research;

(4) David Forsyth, Universidade de Illinois em Urbana-Champaign.

Tabela de links

5. Conclusões

Neste artigo, propomos duas modificações gerais na estrutura de teste virtual: (a) escolher cuidadosamente o par produto-modelo para transferência usando uma incorporação de forma e (b) combinar múltiplas deformações coordenadas usando pintura interna. Nossos resultados mostram que ambas as modificações levam a uma melhoria significativa na qualidade da geração. Exemplos qualitativos demonstram a nossa capacidade de preservar com precisão os detalhes das peças de vestuário. Isso levou a dificuldades para os compradores distinguirem entre imagens de modelos reais e sintetizadas, mostradas pelos resultados de estudos de usuários.

Referências

  1. Alp Guler, R., Neverova, N., Kokkinos, I.: Densepose: estimativa densa da pose humana na natureza. In: Conferência IEEE sobre Visão Computacional e Reconhecimento de Padrões (CVPR) (junho de 2018)


  2. Ayush, K., Jandial, S., Chopra, A., Krishnamurthy, B .: Potencializando o teste virtual por meio do aprendizado auxiliar de segmentação humana. In: Workshops da Conferência Internacional IEEE sobre Visão Computacional (ICCV) (outubro de 2019)


  3. Belongie, S., Malik, J., Puzicha, J.: Correspondência de formas e reconhecimento de objetos usando contextos de formas. PAMI (2002)


  4. Bogo, F., Kanazawa, A., Lassner, C., Gehler, P., Romero, J., Black, MJ: Keep it SMPL: Estimativa automática da pose e forma humana 3D a partir de uma única imagem. In: ECCV (2016)


  5. Brock, A., Donahue, J., Simonyan, K .: Treinamento gan em grande escala para síntese de imagens naturais de alta fidelidade. pré-impressão arXiv arXiv:1809.11096 (2018)


  6. Chen, LC, Zhu, Y., Papandreou, G., Schroff, F., Adam, H.: Codificador-decodificador com convolução atrosa separável para segmentação semântica de imagens. In: ECCV (2018)


  7. Chen, M., Qin, Y., Qi, L., Sun, Y .: Melhorando a detecção de marcos da moda por meio do aprimoramento do recurso de atenção dupla. In: Workshops ICCV (2019)


  8. Chen, W., Wang, H., Li, Y., Su, H., Wang, Z., Tu, C., Lischinski, D., Cohen-Or, D., Chen, B .: Sintetizando imagens de treinamento para aumentar a estimativa de pose humana 3D (2015)


  9. Chong, MJ, Forsyth, D.: Pontuação fid e inicial efetivamente imparcial e onde encontrá-los. Pré-impressão arXiv arXiv:1911.07023 (2019)


  10. Danerek, R., Dibra, E., Oztireli, AC, Ziegler, R., Gross, MH: Deepgarment: estimativa do formato da roupa 3D a partir de uma única imagem. Computação. Gráfico. Fórum (2017)


  11. Dong, H., Liang, X., Gong, K., Lai, H., Zhu, J., Yin, J.: Warping-gan com porta suave para síntese de imagem de pessoa guiada por pose. In: NeurIPS (2018)


  12. Dong, H., Liang, X., Wang, B., Lai, H., Zhu, J., Yin, J.: Rumo a uma rede de teste virtual guiada por múltiplas poses. In: ICCV (2019)


  13. Grigor'ev, AK, Sevastopolsky, A., Vakhitov, A., Lempitsky, VS: Pintura de textura baseada em coordenadas para geração de imagens humanas guiadas por pose. CVPR (2019)


  14. Guan, P., Reiss, L., Hirshberg, D., Weiss, A., Black, M.: Drape: Vestir qualquer pessoa. Transações ACM em Gráficos - TOG (2012)


  15. Han, X., Hu, X., Huang, W., Scott, MR: Clothflow: Um modelo baseado em fluxo para geração de pessoas vestidas. In: ICCV (2019)


  16. Han, X., Wu, Z., Huang, W., Scott, MR, Davis, LS: Pintura de imagem de moda compatível e diversificada (2019)


  17. Han, X., Wu, Z., Wu, Z., Yu, R., Davis, LS: Viton: Uma rede virtual de teste baseada em imagem. In: CVPR (2018)


  18. Heusel, M., Ramsauer, H., Unterthiner, T., Nessler, B., Hochreiter, S.: Gans treinados por uma regra de atualização de duas escalas de tempo convergem para um equilíbrio de Nash local. In: Avanços em sistemas de processamento de informação neural. páginas 6626–6637 (2017)


  19. Hsiao, WL, Grauman, K.: Curativo para diversos formatos corporais. ArXiv (2019)


  20. Hsiao, WL, Katsman, I., Wu, CY, Parikh, D., Grauman, K.: Fashion++: Edições mínimas para melhoria de roupas. In: Nos Anais da Conferência Internacional IEEE sobre Visão Computacional (ICCV) (2019)


  21. Hsieh, CW, Chen, CY, Chou, CL, Shuai, HH, Liu, J., Cheng, WH: Fashionon: teste virtual baseado em imagem guiado semântica com informações detalhadas sobre humanos e roupas. In: MM '19 (2019)

  22. HyugJae, Lee, R., Kang, M., Cho, M., Park, G.: La-viton: Uma rede para parecer um teste virtual atraente. In: Workshops ICCV (2019)


  23. Jaderberg, M., Simonyan, K., Zisserman, A., kavukcuoglu, k.: Redes de transformadores espaciais. In: NeurIPS (2015)


  24. Jandial, S., Chopra, A., Ayush, K., Hemani, M., Kumar, A., Krishnamurthy, B.: Sievenet: Uma estrutura unificada para teste virtual robusto baseado em imagem. In: WACV (2020)


  25. Jeong, MH, Han, DH, Ko, HS: Captura de roupa a partir de uma fotografia. Jornal de Visualização e Animação por Computador (2015)


  26. Ji, D., Kwon, J., McFarland, M., Savarese, S .: Transformação de visão profunda. In: CVPR (2017)


  27. Kanazawa, A., Black, MJ, Jacobs, DW, Malik, J.: Recuperação ponta a ponta da forma e pose humana. CVPR (2018)


  28. Kanazawa, A., Jacobs, D., Chandraker, M.: Warpnet: Correspondência fracamente supervisionada para reconstrução de visão única. In: CVPR (2016)


  29. Karras, T., Laine, S., Aila, T.: Uma arquitetura de gerador baseada em estilo para redes adversárias generativas. In: Anais da Conferência IEEE sobre Visão Computacional e Reconhecimento de Padrões. páginas 4401–4410 (2019)


  30. Lin, CH, Yumer, E., Wang, O., Shechtman, E., Lucey, S.: St-gan: Redes adversárias geradoras de transformadores espaciais para composição de imagens. In: CVPR (2018)


  31. Liu, G., Reda, FA, Shih, KJ, Wang, TC, Tao, A., Catanzaro, B .: Pintura de imagem para furos irregulares usando convoluções parciais. In: ECCV (2018)


  32. Liu, KH, Chen, TY, Chen, CS: Mvc: Um conjunto de dados para recuperação de roupas invariantes à visualização e previsão de atributos. In: ICMR (2016)


  33. Liu, Z., Luo, P., Qiu, S., Wang, X., Tang, X .: Deepfashion: Potencializando reconhecimento e recuperação robustos de roupas com anotações ricas. In: CVPR (2016)


  34. McKinsey: Estado da indústria da moda 2019 (2019)


  35. Natsume, R., Saito, S., Huang, Z., Chen, W., Ma, C., Li, H., Morishima, S.: Siclope: Materiais suplementares para pessoas vestidas com base em silhueta. In: CVPR (2019)


  36. Neverova, N., Gler, RA, Kokkinos, I.: Transferência de pose densa. In: ECCV (2018)


  37. Raffiee, AH, Sollami, M.: Garmentgan: transferência de moda adversária fotorrealista (2020)


  38. Raj, A., Sangkloy, P., Chang, H., Hays, J., Ceylan, D., Lu, J.: Swapnet: transferência de roupas baseada em imagens. In: ECCV (2018)


  39. Rocco, I., Arandjelovi´c, R., Sivic, J.: Arquitetura de rede neural convolucional para correspondência geométrica. In: CVPR (2017)


  40. Saito, S., Huang, Z., Natsume, R., Morishima, S., Kanazawa, A., Li, H .: Pifu: Função implícita pixelaligned para digitalização humana vestida de alta resolução. ICCV (2019)


  41. Schroff, F., Kalenichenko, D., Philbin, J.: Facenet: Uma incorporação unificada para reconhecimento facial e agrupamento. In: CVPR (2015)


  42. Song, D., Li, T., Mao, Z., Liu, A .: Sp-viton: rede virtual de teste baseada em imagem com preservação de forma. Ferramentas e aplicativos multimídia (2019)


  43. Suzuki, S., Abe, K.: Análise estrutural topológica de imagens binárias digitalizadas por seguimento de fronteira. Visão computacional, gráficos e processamento de imagens (1985)


  44. Vaccaro, K., Agarwalla, T., Shivakumar, S., Kumar, R.: Projetando o futuro da moda pessoal. In: Anais da Conferência CHI 2018 sobre Fatores Humanos em Sistemas Computacionais (2018)


  45. Wang, B., Zheng, H., Liang, X., Chen, Y., Lin, L .: Rumo a uma rede virtual de teste baseada em imagem com preservação de características. In: Anais da Conferência Europeia sobre Visão Computacional (ECCV) (2018)


  46. Wang, J., Zhang, W., Liu, WH, Mei, T.: Até o último detalhe: Prova virtual com entalhe detalhado. ArXiv (2019)


  47. Wu, Z., Lin, G., Tao, Q., Cai, J.: M2e-try on net: Moda de modelo para todos. In: MM '19 (2018)


  48. Yang, C., Lu, X., Lin, Z., Shechtman, E., Wang, O., Li, H.: Pintura de imagem de alta resolução usando síntese de patch neural em múltiplas escalas. In: CVPR (2017)


  49. Yu, J., Lin, Z., Yang, J., Shen, X., Lu, X., Huang, TS: Pintura de imagem de forma livre com convolução fechada. In: ICCV (2019)


  50. Yu, J., Lin, ZL, Yang, J., Shen, X., Lu, X., Huang, TS: Pintura de imagem generativa com atenção contextual. In: CVPR (2018)


  51. Yu, L., Zhong, Y., Wang, X .: Rede de teste virtual baseada em pintura para transferência seletiva de roupas. Acesso IEEE (2019)


  52. Yu, L., Zhong, Y., Wang, X .: Rede de teste virtual baseada em pintura para transferência seletiva de roupas. Acesso IEEE (2019)


  53. Yu, R., Wang, X., Xie, X .: Vtnfp: Uma rede de teste virtual baseada em imagem com preservação de características corporais e de roupas


  54. Zhang, H., Goodfellow, I., Metaxas, D., Odena, A .: Redes adversárias geradoras de autoatenção. pré-impressão arXiv arXiv:1805.08318 (2018)


  55. Zheng, N., Song, X., Chen, Z., Hu, L., Cao, D., Nie, L.: Experimentando virtualmente roupas novas com poses arbitrárias. In: MM '19 (2019)


  56. Zheng, S., Yang, F., Kiapour, MH, Piramuthu, R .: Modanet: Um conjunto de dados de moda de rua em grande escala com anotações poligonais. In: ACM Multimídia (2018)


  57. Zhu, S., Fidler, S., Urtasun, R., Lin, D., Chen, CL: Seja sua própria prada: síntese de moda com coerência estrutural. In: CVPR (2017)


Este artigo está disponível no arxiv sob licença CC BY-NC-SA 4.0 DEED.