구글이 2023년 6월에 선보였던 가상으로 옷을 착용해 보는 VTO(virtual try-on) 서비스를 드레스까지 확대했다. 이전에는 바지, 셔츠, 재킷 등 상의 또는 하의로 분리되어 있던 의류만 가능했던 가상 피팅 서비스를 이제 원피스 같은 드레스까지 확대한 것이다. 그렇게 해야만 했던 이유와 기술을 구글이 공개했다.
온라인 쇼핑의 가장 큰 장애물은 실제로 입어보고 옷을 구매할 수 없다는 점이다. 보는 것과 실제로 입었을 때 많은 차이가 나는 것이 옷인 만큼, 직접 입어볼 수 없다는 점은 구매자와 판매자 모두에게 걸림돌이다. 그래서 등장한 것이 PC나 스마트폰에서 미리 착용해 보는 가상 착용 기능이다.
구글의 VTO는 원하는 색상, 스타일, 가격, 패턴 등을 선택하면 적당한 옷을 추천하고, 사전에 입력된 모델을 선택하면 생성형 AI 모델이 옷을 착용한 이미지를 보여준다. 본인의 모습을 직접 사용하는 것이 아니라, 미리 입력된 다양한 피부, 인종, 자세, 머리 스타일 등 이미지 모델에 선택한 옷을 합성해서 미리 확인할 수 있다.
하지만 단순히 모델 사진과 옷의 이미지를 합성하는 것이 아니다. 생성형 AI가 해당 모델이 옷을 입었을 때 생기는 옷의 주름, 달라붙는 정도, 늘어짐, 그림자 등을 생성해 실제로 옷을 입었을 때와 가장 비슷한 모습을 구현한다. 같은 옷이라도 피부색, 키, 몸매 등에 따라 전혀 다르게 보이는 것을 반영한 것이다.
문제는 원피스처럼 상하의가 붙어 있는 드레스 형태의 옷은 이런 사실적이고 자연스러운 가상 착용 이미지를 생성하는 것이 어렵다는 것이다. 드레스는 길이가 길고 형태가 복잡하면서 옷이 길기 때문에 사람의 몸을 더욱 많이 가리기 때문이다. 2023년 6월에 VTO 서비스를 출시하면서 드레스가 제외된 이유다.
구글 쇼핑의 아이라 케멜마허-슐리저만(Ira Kemelmacher-Shlizerman) 수석 과학자는 “가상으로 옷 입어 보기는 디퓨전 기반 기술을 사용하는 VTO를 위해 특별히 개발한 생성 AI 기술 덕분에 가능해졌다. 디퓨전을 사용하면 모든 픽셀을 처음부터 생성하여 모델의 상의와 블라우스를 고품질의 사실적인 이미지로 구현할 수 있다”고 전했다.
그러면서 “드레스에 대한 디퓨전 기술을 테스트하면서 두 가지 독특한 문제가 있다는 것을 알게 되었다. 첫째는 드레스는 일반적으로 미묘한 차이가 있는 의복이라는 점과, 둘째는 드레스가 인체를 더 많이 가리는 경향이 있다는 점이다. 이를 해결하기 위해 점진적 학습 전략(progressive training strategy)과 VTO-UDiT라는 새로운 기술을 고안했다”고 밝혔다.
기존의 VTO AI 모델을 드레스에 적용하면 드레스가 가진 본연의 색상, 무늬, 색상, 주름 등을 구현하는 것이 불가능했다. 드레스가 가진 중요한 특징과 요소가 사라졌으며 단순하게 고해상도 이미지를 사용하는 것으로는 문제가 해결되지 않았다. 마치 작은 캔버스에 복잡한 드레스 모습을 제대로 그릴 수 없는 것과 비슷하다.
이러한 문제를 해결한 것은 점진적 학습 전략이다. 생성형 AI 모델을 학습시키면서 저해상도 이미지에서 시작해 확산 프로세스를 진행하면서 점차 더 높은 해상도로 훈련하는 학습하는 방법을 사용한 것이다. 이를 통해 무조건 고해상도 이미지로 학습해도 해결되지 않던 문제를 해결할 수 있었다.
드레스는 사람 몸을 많이 가리기 때문에 사람이나 드레스를 변경하면 새로운 이미지를 생성하는 과정에서 사람의 이목구비가 흐려지거나 신체의 특징이 모호해지는 문제가 발생했다. 작은 표정 변화, 헤어 스타일, 피부 톤만 달라져도 옷을 입었을 때 느낌이 달라지기 마련인데, 이러한 오류는 전체적인 서비스 품질에 영향을 줄 수밖에 없다.
이 문제는 VTO-UDiT(UNet Diffusion Transformer)라는 새로운 기술을 고안해 개선했다. 사람의 얼굴과 몸 등 신체적인 특징은 분리해서 보존하고, 가상의 스텐실(stencil)을 제공해 그 사람에 대해서 모델을 다시 학습한 후 가상으로 드레스를 착용한 상태를 생성하는 것이다. 이를 통해 사람과 드레스 모두를 더 정확하고 자연스럽게 생성하는 것이 가능해졌다.
구글 쇼핑의 제품 관리 부사장인 릴리안 린콘(Lilian Rincon)은 “쇼핑객은 다른 쇼핑 이미지에 비해 이러한 이미지를 방문하고 상호작용하는 데 더 많은 시간을 할애한다. 실제로 가상 입어보기 이미지의 조회수가 60% 더 높으며, 제품당 평균 4명의 모델을 사용하여 옷을 입어보는 것으로 나타났다. 또한 쇼핑객은 가상 입어보기 이미지를 본 후 브랜드 사이트를 방문할 가능성이 더 높다”며 VTO의 효과를 설명했다.
구글 쇼핑에서 제공하는 VTO는 현재 미국에 거주하는 고객들에게만 제공되며, 검색에서 원하는 옷을 찾은 후 입어 보기(Try On)을 선택하면 된다. 다양한 인종, 피부, 헤어, 몸매, 헤어 스타일을 가진 모델과 XXS-XXXL 사이의 옷 사이즈를 고르면, 가상으로 옷을 착용한 모습을 확인할 수 있다.
⧉ Syndicated to WWW.CIOKOREA.COM
'🅣•TREND•TECHNOLOGY > ARTIFICIAL INTELLIGENCE' 카테고리의 다른 글
AI 투자 1달러 당 4.6 달러 가치 창출…IDC, AI가 2030년 세계 GPT의 3.5% 차지 (0) | 2024.09.23 |
---|---|
복잡한 추론을 더욱 효과적으로…오픈AI, o1-프리뷰 모델 공개 (0) | 2024.09.23 |
재무 업무 58%가 AI 사용…가트너, 데이터 및 전문 인재 부족 (0) | 2024.09.23 |
‘나쁜 말’ 걸러주는 오픈 소스 AI 모델…IBM, 작고 빠른 새로운 HAP 필터 공개 (0) | 2024.09.12 |
AI 활용 수준에 따른 5가지 유형…세일즈포스, ‘당신의 AI 페르소나는?’ (0) | 2024.09.06 |
스마트폰부터 이어폰까지 AI 품고 환골탈태…구글, 픽셀 9, 픽셀 워치 3, 픽셀 버즈 프로 2에 AI 탑재 (0) | 2024.08.16 |
AI 스튜디오 시장 2029년까지 38.4% 성장…데이터 민주화 수요가 성장 견인 (0) | 2024.08.13 |
성공하는 AI '사용자 경험, 투명성, 우선 순위'…구글, AI 솔루션 설계에서 얻은 교훈 3가지 (0) | 2024.08.08 |