[논문 소개] DINOv2 - Self-supervised Vision Transformer | Meta AI | 레이블 데이터 없이 강력한 성능을 내는 Vision AI 모델
·
🏛 Research/Detection & Segmentation
DINOv2 논문 제목 : DINOv2: Learning Robust Visual Features without Supervision GitHub Demo 23년 4월 Meta AI에서 self-supervised learning을 사용하여 고성능 컴퓨터비전 모델을 학습하는 새로운 방법인 DINOv2를 공개했다. LLM(Large Language Model) 학습에도 활용되는 self-supervised learning 방법은 모델 학습 시 많은 양의 레이블이 지정된 데이터가 필요하지 않기 때문에 AI 모델을 학습하는 강력하고 유연한 방법이다. 논문에 따르면 최근 몇년 동안 컴퓨터비전 작업의 표준 접근 방식이었던 이미지-텍스트를 페어로 학습하는 멀티모달 방식의 학습 방법에서는 이미지의 캡션 정보에 의존한..
[Meta AI] SAM (Segment Anything Model) 사용 방법 | 모든 객체를 분할하는 Vision AI 모델
·
💻 Programming/Computer Vision
SAM (Segment Anything Model) Meta 에서 SAM (Segment Anything Model) 이라는 어떤 것이든 분할할 수 있는 모델을 공개했다. 논문 제목 자체가 'Segment Anything' 인데 굉장히 자신감 넘치는 워딩이다. 간단한 설명을 살펴보면, SAM은 point나 box와 같은 입력 프롬프트를 통해 고품질 객체 마스크를 생성하며 모든 객체에 대한 마스크를 생성하는 데 사용할 수 있다고 한다. 약 1,100만 개의 이미지와 11억 개의 마스크로 구성된 데이터셋으로 학습되었으며 다양한 segmentation task에서 강력한 zero-shot 성능을 보인다고 한다. Segment Anything 웹데모 Segment Anything Meta AI Computer ..