본문 바로가기
AI/pose with style

detectron2

by wenect 2023. 2. 14.

https://github.com/facebookresearch/detectron2

 

GitHub - facebookresearch/detectron2: Detectron2 is a platform for object detection, segmentation and other visual recognition t

Detectron2 is a platform for object detection, segmentation and other visual recognition tasks. - GitHub - facebookresearch/detectron2: Detectron2 is a platform for object detection, segmentation a...

github.com

Detectron2는 최신 감지 및 세분화 알고리즘을 제공하는 Facebook AI Research의 차세대 라이브러리입니다. Detectron  maskrcnn-benchmark 의 후속 제품입니다 .

2018년 출시 이후,디텍트론개체 감지 플랫폼은 FAIR(Facebook AI Research)에서 가장 널리 채택된 오픈 소스 프로젝트 중 하나가 되었습니다. 

  • panoptic 분할, Densepose, Cascade R-CNN, 회전 경계 상자, PointRend, DeepLab, ViTDet, MViTv2 등 기능을 포함합니다.
  • 연구 프로젝트를 지원하는 라이브러리로 사용됩니다 .
  • 배포를 위해 모델을 TorchScript 형식 또는 Caffe2 형식으로 내보낼 수 있습니다.
  • 훨씬 빠르게 훈련 합니다 .
  • PyTorch 기반 모듈식 개체 감지 라이브러리

demo output image

Dense Pose의 기능을 제외하면 기존의 Mask R-CNN Model에서 크게 벗어나지는 않음.

Detectron2의 모듈식 설계를 통해 사용자가 이미지를 촬영하고 맞춤형 백본으로 쉽게 전환하고 다른 예측 헤드를 삽입하고 팬옵틱 분할을 수행할 수 있는 방법을 보여줍니다.

 

Detectron2 Training - 데이터셋 만들기

https://github.com/Tony607/labelme2coco/

https://github.com/wkentaro/labelme

인스턴스 분할은 경계 상자 대신 다각형 주석이 필요하므로 개체 감지 주석과 다릅니다. labelme 및 coco-annotator와 같이 무료로 사용할 수 있는 많은 도구가 있습니다 . labelme  는 설치하기 쉽고 모든 주요 OS에서 실행되지만 많은 모델 교육 프레임워크/파이프라인에 필요한 COCO 데이터 형식 주석을 내보내는 기본 지원이 부족합니다. 반면에 coco-annotator  는 웹 기반 응용 프로그램으로 컴퓨터에서 실행하려면 추가 작업이 필요합니다. 

 

다음은 인스턴스 세분화를 위해 고유한 COCO 데이터 세트를 만드는 방법에 대한 개요입니다.

  • labelme를 다운로드하고 응용 프로그램을 실행하고 이미지의 다각형에 주석을 답니다.
  • 내 스크립트를 실행하여 labelme 주석 파일을 COCO 데이터 세트 JSON 파일로 변환합니다.

1. 데이터셋 만들기
2. 훈련시키기
3. 정확도 확인하기
4. 예측하기
https://hansonminlearning.tistory.com/52?category=935564 
https://www.dlology.com/blog/how-to-create-custom-coco-data-set-for-instance-segmentation/

 
[3] Detectron2 GitHub Repo(https://github.com/facebookresearch/detectron2) 

'AI > pose with style' 카테고리의 다른 글

YOLO V7 - installation  (0) 2023.02.16
Detection Human and garments  (0) 2023.02.15
Pose with Style - Test  (0) 2023.02.14
CIHP-PGN Multi-Person  (0) 2023.02.14
CIHP-PGN  (0) 2023.02.14

댓글