본문 바로가기

AI/Segmentation6

SAM, SAM2, SAMURAI 발표자료 sam 논문을 한글로 번역해논곳https://kimjy99.github.io/%EB%85%BC%EB%AC%B8%EB%A6%AC%EB%B7%B0/segment-anything/ [논문리뷰] Segment Anything (SAM)SAM 논문 리뷰kimjy99.github.iohttps://kimjy99.github.io/%EB%85%BC%EB%AC%B8%EB%A6%AC%EB%B7%B0/samurai/ [논문리뷰] SAMURAI: Adapting Segment Anything Model for Zero-Shot Visual Tracking with Motion-Aware MemorySAMURAI 논문 리뷰kimjy99.github.io 2024. 12. 10.
Grounded-Segment-Anything 우리는 텍스트 입력으로 무엇이든 감지하고 분할하는 것을 목표로 하는 Grounding DINO 와 Segment Anything을 결합하여 매우 흥미로운 데모를 만들 계획입니다 ! 그리고 우리는 계속해서 이를 개선하고 이러한 기반을 바탕으로 더욱 흥미로운 데모를 만들 것입니다. 그리고 우리는 이미 arXiv 프로젝트에 대한 전반적인 기술 보고서를 발표했습니다. 자세한 내용은 Grounded SAM: Assembling Open-World Models for Diverse Visual Tasks를 확인하세요. 우리는 Segment-Anything을 기반으로 모든 사람이 새로운 프로젝트를 공유하고 홍보할 수 있도록 기꺼이 도와드립니다 . 여기에서 커뮤니티의 더 놀라운 데모와 작업을 확인하세요: 하이라이트 확.. 2024. 1. 29.
Depth-Anything 모든 이미지에 대해 고품질의 깊이 정보를 제공할 수 있는 단안 깊이 추정(Monocular Depth Estimation, MDE)을 위한 기반 모델 'Depth Anything'이 등장했습니다. Depth Anything: 라벨이 지정되지 않은 대규모 데이터의 힘 발휘 Lihe Yang, Bingyi Kang, Zilong Huang, Xiaogang Xu, Jiashi Feng, Hengshuang Zhao 프로젝트 | 논문 | GitHub | 데모 기존의 방법과 달리 약 150만장의 라벨이 부착된 이미지와 함께 약 6200만장의 대규모 라벨이 없는 이미지를 이용하고 있습니다. 레이블이 없는 이미지를 효과적으로 활용하기 위해 연구팀은 자동으로 깊이 주석을 생성하는 데이터 엔진을 설계했습니다. 이를 통.. 2024. 1. 29.
ZoeDepth: 상대적 깊이와 메트릭 깊이 결합 (공식 구현) ZoeDepth: 상대적 깊이와 메트릭 깊이 결합 (공식 구현) https://github.com/isl-org/ZoeDepth GitHub - isl-org/ZoeDepth: Metric depth estimation from a single image Metric depth estimation from a single image. Contribute to isl-org/ZoeDepth development by creating an account on GitHub. github.com arXiv 2023. [Paper] [Github] Gabriela Ben Melech Stan, Diana Wofk, Scottie Fox, Alex Redden, Will Saxton, Jean Yu, Estelle.. 2024. 1. 24.