본문 바로가기

전체 글220

Grounded-Segment-Anything 우리는 텍스트 입력으로 무엇이든 감지하고 분할하는 것을 목표로 하는 Grounding DINO 와 Segment Anything을 결합하여 매우 흥미로운 데모를 만들 계획입니다 ! 그리고 우리는 계속해서 이를 개선하고 이러한 기반을 바탕으로 더욱 흥미로운 데모를 만들 것입니다. 그리고 우리는 이미 arXiv 프로젝트에 대한 전반적인 기술 보고서를 발표했습니다. 자세한 내용은 Grounded SAM: Assembling Open-World Models for Diverse Visual Tasks를 확인하세요. 우리는 Segment-Anything을 기반으로 모든 사람이 새로운 프로젝트를 공유하고 홍보할 수 있도록 기꺼이 도와드립니다 . 여기에서 커뮤니티의 더 놀라운 데모와 작업을 확인하세요: 하이라이트 확.. 2024. 1. 29.
Diffuse to Choose: Enriching Image Conditioned Inpainting in Latent Diffusion Models for Virtual Try-All 온라인 쇼핑이 성장함에 따라 구매자가 자신의 환경에서 제품을 가상으로 시각화할 수 있는 능력(우리가 "가상 체험형"으로 정의하는 현상)이 중요해졌습니다. 최근 확산 모델에는 본질적으로 월드 모델이 포함되어 있어 이를 인페인팅 컨텍스트 내에서 이 작업에 적합하게 렌더링합니다. 그러나 기존의 이미지 조절 확산 모델은 제품의 세밀한 세부 사항을 포착하지 못하는 경우가 많습니다. 이와 대조적으로 DreamPaint 와 같은 개인화 중심 모델은 항목의 세부 정보를 보존하는 데는 좋지만 실시간 애플리케이션에 최적화되어 있지 않습니다. 우리는 주어진 장면 콘텐츠에서 정확한 의미론적 조작을 보장하면서 주어진 참조 항목의 충실도가 높은 세부 정보 유지와 빠른 추론의 균형을 효율적으로 유지하는 새로운 확산 기반 이미지 조.. 2024. 1. 29.
Depth-Anything 모든 이미지에 대해 고품질의 깊이 정보를 제공할 수 있는 단안 깊이 추정(Monocular Depth Estimation, MDE)을 위한 기반 모델 'Depth Anything'이 등장했습니다. Depth Anything: 라벨이 지정되지 않은 대규모 데이터의 힘 발휘 Lihe Yang, Bingyi Kang, Zilong Huang, Xiaogang Xu, Jiashi Feng, Hengshuang Zhao 프로젝트 | 논문 | GitHub | 데모 기존의 방법과 달리 약 150만장의 라벨이 부착된 이미지와 함께 약 6200만장의 대규모 라벨이 없는 이미지를 이용하고 있습니다. 레이블이 없는 이미지를 효과적으로 활용하기 위해 연구팀은 자동으로 깊이 주석을 생성하는 데이터 엔진을 설계했습니다. 이를 통.. 2024. 1. 29.
TensorFlow 2.x - Simple learning import pandas as pd import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense # 데이터 불러오기 및 전처리 data = pd.read_csv('gpascore.csv') data.dropna(inplace=True) y_data = data['admin'].values x_data = data[['gre', 'gpa', 'rank']].values # 신경망 모델 구성 model = Sequential([ Dense(64, activation='tanh', input_shape=(3,)), # 입력 레이어, 입력 노드 3개 (gre, gpa, r.. 2024. 1. 26.