본문 바로가기

AI137

Fooocus https://colab.research.google.com/drive/1gyhYiNS7W5Oyvh1_sd0ZPeEk_9vEaqBc?usp=sharing Fooocus_devbrother.ipynb Colaboratory notebook colab.research.google.com https://stokemctoke.com/ Stoke McToke – Where AI, Art, and Learning Curve Converge I’ve always appreciated my website’s hero image, especially its cool, futuristic pyramids vibe. But, let’s be honest, it’s been the same view for too long, .. 2024. 2. 17.
One-Stage 3D Whole-Body Mesh Recovery with Component Aware Transformer https://github.com/IDEA-Research/OSX 2024. 1. 29.
Grounded-Segment-Anything 우리는 텍스트 입력으로 무엇이든 감지하고 분할하는 것을 목표로 하는 Grounding DINO 와 Segment Anything을 결합하여 매우 흥미로운 데모를 만들 계획입니다 ! 그리고 우리는 계속해서 이를 개선하고 이러한 기반을 바탕으로 더욱 흥미로운 데모를 만들 것입니다. 그리고 우리는 이미 arXiv 프로젝트에 대한 전반적인 기술 보고서를 발표했습니다. 자세한 내용은 Grounded SAM: Assembling Open-World Models for Diverse Visual Tasks를 확인하세요. 우리는 Segment-Anything을 기반으로 모든 사람이 새로운 프로젝트를 공유하고 홍보할 수 있도록 기꺼이 도와드립니다 . 여기에서 커뮤니티의 더 놀라운 데모와 작업을 확인하세요: 하이라이트 확.. 2024. 1. 29.
Diffuse to Choose: Enriching Image Conditioned Inpainting in Latent Diffusion Models for Virtual Try-All 온라인 쇼핑이 성장함에 따라 구매자가 자신의 환경에서 제품을 가상으로 시각화할 수 있는 능력(우리가 "가상 체험형"으로 정의하는 현상)이 중요해졌습니다. 최근 확산 모델에는 본질적으로 월드 모델이 포함되어 있어 이를 인페인팅 컨텍스트 내에서 이 작업에 적합하게 렌더링합니다. 그러나 기존의 이미지 조절 확산 모델은 제품의 세밀한 세부 사항을 포착하지 못하는 경우가 많습니다. 이와 대조적으로 DreamPaint 와 같은 개인화 중심 모델은 항목의 세부 정보를 보존하는 데는 좋지만 실시간 애플리케이션에 최적화되어 있지 않습니다. 우리는 주어진 장면 콘텐츠에서 정확한 의미론적 조작을 보장하면서 주어진 참조 항목의 충실도가 높은 세부 정보 유지와 빠른 추론의 균형을 효율적으로 유지하는 새로운 확산 기반 이미지 조.. 2024. 1. 29.