본문 바로가기

AI/pose with style24

Virtual Tryon IDM-VTON AI 모델로 패션 상세 페이지 5분 만에 만드는 법본 논문에서는 사람과 의복을 각각 묘사하는 한 쌍의 이미지가 주어지면 선별된 의복을 입고 있는 사람의 이미지를 렌더링하는 이미지 기반 가상 시착을 고려합니다. 이전 작업에서는 가상 시착을 위해 기존 예시 기반 인페인팅 확산 모델을 적용하여 다른 방법(예: GAN 기반)에 비해 생성된 시각적 자연성을 향상시켰지만 의류의 정체성을 유지하지 못했습니다. 이러한 한계를 극복하기 위해 우리는 의류 충실도를 향상시키고 실제 가상 시착 이미지를 생성하는 새로운 확산 모델을 제안합니다. IDM-VTON이라는 우리의 방법은 두 가지 다른 모듈을 사용하여 의류 이미지의 의미를 인코딩합니다. 확산 모델의 기본 UNet이 주어지면 1) 시각적 인코더에서 추출된 상위 수준 의미.. 2024. 5. 7.
IPADATER PLUS를 활용해 의상을 변경해보자 https://arxiv.org/html/2403.01779v1 https://github.com/AuroBit/ComfyUI-OOTDiffusion GitHub - AuroBit/ComfyUI-OOTDiffusion: ComfyUI custom node that simply integrates the OOTDiffusion. ComfyUI custom node that simply integrates the OOTDiffusion. - AuroBit/ComfyUI-OOTDiffusion github.com https://github.com/levihsu/OOTDiffusion?tab=readme-ov-file GitHub - levihsu/OOTDiffusion: Official implementati.. 2024. 4. 17.
Diffuse to Choose: Enriching Image Conditioned Inpainting in Latent Diffusion Models for Virtual Try-All 온라인 쇼핑이 성장함에 따라 구매자가 자신의 환경에서 제품을 가상으로 시각화할 수 있는 능력(우리가 "가상 체험형"으로 정의하는 현상)이 중요해졌습니다. 최근 확산 모델에는 본질적으로 월드 모델이 포함되어 있어 이를 인페인팅 컨텍스트 내에서 이 작업에 적합하게 렌더링합니다. 그러나 기존의 이미지 조절 확산 모델은 제품의 세밀한 세부 사항을 포착하지 못하는 경우가 많습니다. 이와 대조적으로 DreamPaint 와 같은 개인화 중심 모델은 항목의 세부 정보를 보존하는 데는 좋지만 실시간 애플리케이션에 최적화되어 있지 않습니다. 우리는 주어진 장면 콘텐츠에서 정확한 의미론적 조작을 보장하면서 주어진 참조 항목의 충실도가 높은 세부 정보 유지와 빠른 추론의 균형을 효율적으로 유지하는 새로운 확산 기반 이미지 조.. 2024. 1. 29.
Stablediffusion - Replacer ( try on ) Replacer>Install 1.sd-webui-segment-anything 확장을 설치. 2.모델 sam_hq_vit_l.pth (또는 기타)를 extensions/sd-webui-segment-anything/models/sam 3.(선택사항) 더 빠른 고용 수정을 위해 lcm-lora-sdv1-5 를 다운로드 하고 이름을 lcm-lora-sdv1-5.safetensors로 바꾸고 models/Lora에 복사. 4. 이확장 프로그램을 설치 sd-webui 버전 1.7.0이상 git checkout 9a20cb2 1.6.x의 경우 마지막 호환 버전은 9a20cb2 (다운그레이드를 하려면 확장 프로그램 디렉터리 내부에서 실행) 5.UI 새로고침 Model Source SAM GitHub - conti.. 2024. 1. 21.