본문 바로가기

AI140

NeRF−− 2D 이미지 세트만으로 NVS(Novel View Synthesis)의 문제를 고려하면, 우리는 전방을 향한 장면에서 NeRF(Neural Radiance Field)의 훈련 과정을 단순화합니다. 내장 포즈와 6DoF 포즈를 모두 포함하여 알려진 카메라 매개변수 또는 사전 계산된 카메라 매개변수의 요구 사항을 제거합니다. 이를 위해 우리는 세 가지 기여와 함께 NeRF−−를 제안합니다. 첫째, NeRF 훈련을 통해 카메라 파라미터를 학습 가능한 파라미터로 공동으로 최적화할 수 있음을 보여줍니다. 측광 재구성을 통해; 둘째, 카메라 파라미터 추정과 새로운 뷰 렌더링의 품질을 벤치마킹하기 위해, BLEFF(Blender Forward-Facing Dataset)라고 하는 경로 추적 합성 장면의 새로운 데이터.. 2023. 6. 27.
Vid2Avatar CVPR 2023 논문 Vid2Avatar: Self-supervised Scene Decomposition을 통해 비디오에서 3D 아바타 재구성을 위한 공식 리포지토리입니다 . We have used codes from other great research work, including VolSDF, NeRF++, SMPL-X, Anim-NeRF, I M Avatar and SNARF. We sincerely thank the authors for their awesome work! We also thank the authors of ICON and SelfRecon for discussing experiment. https://moygcc.github.io/vid2avatar/ Vid2Avatar: 3.. 2023. 6. 26.
awesome 3d human reconstruction https://github.com/rlczddl/awesome-3d-human-reconstruction#3D_human_whole_body GitHub - rlczddl/awesome-3d-human-reconstruction Contribute to rlczddl/awesome-3d-human-reconstruction development by creating an account on GitHub. github.com A curated list of related resources for 3d human reconstruction. Your contributions are welcome! Contents papers AIGC nerf or pifu geo fusion photo 3D human wh.. 2023. 6. 25.
RERENDER A VIDEO: ZERO-SHOT TEXT-GUIDED VIDEO-TO-VIDEO TRANSLATION 대형 텍스트 대 이미지 확산 모델은 고품질 이미지를 생성하는 데 인상적인 능력을 보여주었습니다. 그러나 이러한 모델을 비디오 도메인에 적용할 때 비디오 프레임 전체에서 시간적 일관성을 보장하는 것은 여전히 ​​어려운 과제입니다. 본 논문은 비디오에 이미지 모델을 적용하기 위한 새로운 제로샷 텍스트 가이드 비디오-비디오 변환 프레임워크를 제안합니다. 프레임워크에는 키 프레임 번역과 전체 비디오 번역의 두 부분이 포함됩니다. 첫 번째 부분은 적응된 확산 모델을 사용하여 키 프레임을 생성하고 계층적 교차 프레임 제약 조건을 적용하여 모양, 질감 및 색상의 일관성을 강화합니다. 두 번째 부분은 시간 인식 패치 일치 및 프레임 블렌딩을 사용하여 키 프레임을 다른 프레임으로 전파합니다. 우리의 프레임워크는 (재훈련.. 2023. 6. 18.