저자:
(1) 일리노이 대학교 어바나-샴페인 캠퍼스의 케단 리(Kedan Li);
(2) 일리노이대학교 어바나-샴페인캠퍼스 민진정(Min Jin Chong);
(3) JD AI 리서치의 Jingen Liu;
(4) David Forsyth, 일리노이 대학교 어바나-샴페인 캠퍼스.
본 논문에서는 가상 시착 프레임워크에 대한 두 가지 일반적인 수정 사항을 제안합니다. (a) 모양 임베딩을 사용하여 전송할 제품-모델 쌍을 신중하게 선택하고 (b) 인페인팅을 사용하여 여러 개의 조정된 워프를 결합합니다. 우리의 결과는 두 가지 수정 모두 발전 품질을 크게 향상시키는 것으로 나타났습니다. 질적 사례는 의류의 세부 사항을 정확하게 보존하는 능력을 보여줍니다. 이로 인해 쇼핑객은 사용자 연구 결과에 나타난 실제 모델 이미지와 합성 모델 이미지를 구별하기가 어려워졌습니다.
Alp Guler, R., Neverova, N., Kokkinos, I.: Densepose: 야생에서 조밀한 인간 자세 추정. In: 컴퓨터 비전 및 패턴 인식(CVPR)에 관한 IEEE 컨퍼런스(2018년 6월)
Ayush, K., Jandial, S., Chopra, A., Krishnamurthy, B.: 보조 인간 세분화 학습을 통해 가상 체험 지원. In: 컴퓨터 비전에 관한 IEEE 국제 회의(ICCV) 워크숍(2019년 10월)
Belongie, S., Malik, J., Puzicha, J.: 모양 컨텍스트를 사용한 모양 일치 및 개체 인식. 파미(2002)
Bogo, F., Kanazawa, A., Lassner, C., Gehler, P., Romero, J., Black, MJ: 유지 SMPL: 단일 이미지에서 3D 인간 자세 및 모양을 자동으로 추정합니다. 에서: ECCV (2016)
Brock, A., Donahue, J., Simonyan, K.: 충실도가 높은 자연 이미지 합성을 위한 대규모 간 훈련. arXiv 사전 인쇄 arXiv:1809.11096 (2018)
Chen, LC, Zhu, Y., Papandreou, G., Schroff, F., Adam, H.: 의미론적 이미지 분할을 위한 아트러스 분리 가능 컨볼루션을 갖춘 인코더-디코더. 에서: ECCV (2018)
Chen, M., Qin, Y., Qi, L., Sun, Y.: 이중 주의 기능 향상을 통해 패션 랜드마크 감지 개선. 에서: ICCV 워크샵 (2019)
Chen, W., Wang, H., Li, Y., Su, H., Wang, Z., Tu, C., Lischinski, D., Cohen-Or, D., Chen, B.: 훈련 이미지 합성 인간의 3D 자세 추정 향상을 위한(2015)
Chong, MJ, Forsyth, D.: 효과적으로 편견이 없는 FID 및 시작 점수와 이를 찾을 수 있는 위치. arXiv 사전 인쇄 arXiv:1911.07023 (2019)
Danerek, R., Dibra, E., Oztireli, AC, Ziegler, R., Gross, MH: Deepgarment: 단일 이미지로부터 3D 의류 형태 추정. 계산. 그래프. 포럼(2017)
Dong, H., Liang, X., Gong, K., Lai, H., Zhu, J., Yin, J.: 포즈 유도 인물 이미지 합성을 위한 Soft-gated warping-gan. 에서: NeurIPS (2018)
Dong, H., Liang, X., Wang, B., Lai, H., Zhu, J., Yin, J.: 다중 자세 안내 가상 시험 네트워크를 향하여. 에서: ICCV (2019)
Grigor'ev, AK, Sevastopolsky, A., Vakhitov, A., Lempitsky, VS: 포즈 기반 인간 이미지 생성을 위한 좌표 기반 텍스처 인페인팅. CVPR (2019)
Guan, P., Reiss, L., Hirshberg, D., Weiss, A., Black, M.: 드레이프: 모든 사람에게 옷을 입힙니다. 그래픽에 대한 ACM 트랜잭션 - TOG(2012)
Han, X., Hu, X., Huang, W., Scott, MR: Clothflow: 옷을 입은 사람 생성을 위한 흐름 기반 모델. 에서: ICCV (2019)
Han, X., Wu, Z., Huang, W., Scott, MR, Davis, LS: 호환 가능하고 다양한 패션 이미지 인페인팅(2019)
Han, X., Wu, Z., Wu, Z., Yu, R., Davis, LS: Viton: 이미지 기반 가상 체험 네트워크. 에서: CVPR (2018)
Heusel, M., Ramsauer, H., Unterthiner, T., Nessler, B., Hochreiter, S.: 두 가지 시간 규모 업데이트 규칙에 따라 훈련된 Gans는 로컬 내쉬 균형으로 수렴됩니다. 에서: 신경 정보 처리 시스템의 발전. 6626~6637페이지(2017)
Hsiao, WL, Grauman, K.: 다양한 체형에 맞는 옷차림. 아르시브(2019)
Hsiao, WL, Katsman, I., Wu, CY, Parikh, D., Grauman, K.: Fashion++: 의상 개선을 위한 최소한의 편집. In: 컴퓨터 비전에 관한 IEEE 국제 컨퍼런스(ICCV) 진행 중(2019)
Hsieh, CW, Chen, CY, Chou, CL, Shuai, HH, Liu, J., Cheng, WH: Fashionon: 자세한 인간 및 의복 정보가 포함된 의미 안내 이미지 기반 가상 체험. 에서: MM '19 (2019)
HyugJae, Lee, R., Kang, M., Cho, M., Park, G.: La-viton: 매력적인 가상 입어보기를 위한 네트워크. 에서: ICCV 워크샵 (2019)
Jaderberg, M., Simonyan, K., Zisserman, A., kavukcuoglu, k.: 공간 변환기 네트워크. 에서: NeurIPS (2015)
Jandial, S., Chopra, A., Ayush, K., Hemani, M., Kumar, A., Krishnamurthy, B.: Sievenet: 강력한 이미지 기반 가상 체험을 위한 통합 프레임워크입니다. 에서: WACV (2020)
정민화, 한동훈, 고현수: 사진을 통해 의복을 포착하다. 시각화 및 컴퓨터 애니메이션 저널(2015)
Ji, D., Kwon, J., McFarland, M., Savarese, S.: 딥 뷰 모핑. 에서: CVPR (2017)
Kanazawa, A., Black, MJ, Jacobs, DW, Malik, J.: 인간의 형태와 자세를 완벽하게 복구합니다. CVPR (2018)
Kanazawa, A., Jacobs, D., Chandraker, M.: Warpnet: 단일 뷰 재구성을 위한 약한 감독 매칭. 에서: CVPR (2016)
Karras, T., Laine, S., Aila, T.: 생성적 적대 네트워크를 위한 스타일 기반 생성기 아키텍처. In: 컴퓨터 비전 및 패턴 인식에 관한 IEEE 회의 진행. 4401~4410페이지(2019)
Lin, CH, Yumer, E., Wang, O., Shechtman, E., Lucey, S.: St-gan: 이미지 합성을 위한 공간 변환기 생성 적대 네트워크. 에서: CVPR (2018)
Liu, G., Reda, FA, Shih, KJ, Wang, TC, Tao, A., Catanzaro, B.: 부분 컨볼루션을 사용한 불규칙한 구멍에 대한 이미지 인페인팅. 에서: ECCV (2018)
Liu, KH, Chen, TY, Chen, CS: Mvc: 뷰 불변 의류 검색 및 속성 예측을 위한 데이터 세트입니다. 에서: ICMR (2016)
Liu, Z., Luo, P., Qiu, S., Wang, X., Tang, X.: Deepfashion: 풍부한 주석을 통해 강력한 의류 인식 및 검색 기능을 제공합니다. 에서: CVPR (2016)
McKinsey: 2019년 패션 산업 현황(2019)
Natsume, R., Saito, S., Huang, Z., Chen, W., Ma, C., Li, H., Morishima, S.: Siclope: 실루엣 기반 옷을 입은 사람들 보충 자료. 에서: CVPR (2019)
Neverova, N., Gler, RA, Kokkinos, I.: 조밀한 포즈 이동. 에서: ECCV (2018)
Raffiee, AH, Sollami, M.: Garmentgan: 사진처럼 사실적인 적대적 패션 전송(2020)
Raj, A., Sangkloy, P., Chang, H., Hays, J., Ceylan, D., Lu, J.: Swapnet: 이미지 기반 의류 전송. 에서: ECCV (2018)
Rocco, I., Arandjelovi´c, R., Sivic, J.: 기하학적 일치를 위한 컨벌루션 신경망 아키텍처. 에서: CVPR (2017)
Saito, S., Huang, Z., Natsume, R., Morishima, S., Kanazawa, A., Li, H.: Pifu: 옷을 입은 고해상도 인간 디지털화를 위한 픽셀 정렬 암시적 함수. ICCV (2019)
Schroff, F., Kalenichenko, D., Philbin, J.: Facenet: 얼굴 인식 및 클러스터링을 위한 통합 임베딩입니다. 에서: CVPR (2015)
Song, D., Li, T., Mao, Z., Liu, A.: Sp-viton: 형태 보존 이미지 기반 가상 시착 네트워크. 멀티미디어 도구 및 애플리케이션(2019)
Suzuki, S., Abe, K.: 경계선 추적에 따른 디지털화된 이진 이미지의 위상학적 구조 분석. 컴퓨터 비전, 그래픽 및 이미지 처리(1985)
Vaccaro, K., Agarwalla, T., Shivakumar, S., Kumar, R.: 개인 패션의 미래를 디자인합니다. In: 컴퓨팅 시스템의 인적 요소에 관한 2018 CHI 회의 간행물(2018)
Wang, B., Zheng, H., Liang, X., Chen, Y., Lin, L.: 특성 보존 이미지 기반 가상 시험 네트워크를 향하여. In: 컴퓨터 비전에 관한 유럽 회의(ECCV) 회의록(2018)
Wang, J., Zhang, W., Liu, WH, Mei, T.: 마지막 디테일까지: 디테일 조각을 이용한 가상 시착. 아르시브(2019)
Wu, Z., Lin, G., Tao, Q., Cai, J.: M2e-net on try: 모델부터 모든 사람까지의 패션. 에서: MM '19 (2018)
Yang, C., Lu, X., Lin, Z., Shechtman, E., Wang, O., Li, H.: 다중 규모 신경 패치 합성을 사용한 고해상도 이미지 인페인팅. 에서: CVPR (2017)
Yu, J., Lin, Z., Yang, J., Shen, X., Lu, X., Huang, TS: 게이트 컨볼루션을 사용한 자유형 이미지 인페인팅. 에서: ICCV (2019)
Yu, J., Lin, ZL, Yang, J., Shen, X., Lu, X., Huang, TS: 상황에 맞는 생성적 이미지 인페인팅. 에서: CVPR (2018)
Yu, L., Zhong, Y., Wang, X.: 선택적 의류 전송을 위한 인페인팅 기반 가상 시착 네트워크. IEEE 액세스(2019)
Yu, L., Zhong, Y., Wang, X.: 선택적 의류 전송을 위한 인페인팅 기반 가상 시착 네트워크. IEEE 액세스(2019)
Yu, R., Wang, X., Xie, X.: Vtnfp: 신체 및 의복 특징을 보존하는 이미지 기반 가상 시착 네트워크
Zhang, H., Goodfellow, I., Metaxas, D., Odena, A.: 자기 주의 생성 적대 네트워크. arXiv 사전 인쇄 arXiv:1805.08318 (2018)
Zheng, N., Song, X., Chen, Z., Hu, L., Cao, D., Nie, L.: 가상으로 임의의 포즈로 새 옷을 입어봅니다. 에서: MM '19 (2019)
Zheng, S., Yang, F., Kiapour, MH, Piramuthu, R.: Modanet: 다각형 주석이 포함된 대규모 스트리트 패션 데이터세트입니다. In: ACM 멀티미디어(2018)
Zhu, S., Fidler, S., Urtasun, R., Lin, D., Chen, CL: 나만의 프라다가 되어 보세요: 구조적 일관성을 갖춘 패션 합성. 에서: CVPR (2017)
이 문서는 CC BY-NC-SA 4.0 DEED 라이센스에 따라 arxiv에서 볼 수 있습니다 .