Open Vocabulary12 [논문 리뷰] CLIP-FO3D: Learning Free Open-world 3D Scene Representations from 2D Dense CLIP 이 논문은 CLIP을 point clouds segmentation에적용하고자 하는 논문인데읽어보면 사실 3D보단 2D segmentation에더 가까운 논문이다. arXiv' 23https://arxiv.org/abs/2303.04748 CLIP-FO3D: Learning Free Open-world 3D Scene Representations from 2D Dense CLIPTraining a 3D scene understanding model requires complicated human annotations, which are laborious to collect and result in a model only encoding close-set object semantics. In contras.. 2023. 8. 29. [논문리뷰] Language-Grounded Indoor 3D Semantic Segmentation in the Wild 이번 논문은 Scannet benchmark에서ScanNet200으로 알려져있는 benchmark의 논문이다.원래 SanNet은 20개의 class만 있지만 ScanNet200은 class를세부적으로 분할하여 200개의 class로 구성한 것이다. ECCV' 22https://arxiv.org/abs/2204.07761 Language-Grounded Indoor 3D Semantic Segmentation in the WildRecent advances in 3D semantic segmentation with deep neural networks have shown remarkable success, with rapid performance increase on available datasets. H.. 2023. 8. 22. [논문리뷰] PointCLIP V2: Adapting CLIP for Powerful 3D Open-world Learning 본 논문은 PointCLIP의 후속논문으로PointCLIP보다 다듬어진 방법을 소개한다. ICCV'23https://arxiv.org/abs/2211.11682 PointCLIP V2: Adapting CLIP for Powerful 3D Open-world LearningContrastive Language-Image Pre-training (CLIP) has shown promising open-world performance on 2D image tasks, while its transferred capacity on 3D point clouds, i.e., PointCLIP, is still far from satisfactory. In this work, we propose PointCLIP V.. 2023. 8. 21. [논문리뷰] PointCLIP: Point Cloud Understanding by CLIP 논문 리뷰 방식을 몇번씩 바꾸고 있는데여러가지 방법을 시도해본 결과논문을 정리하는 방식으로 진행하는게가장 나을것 같다는 생각이 든다.그래서 해당 논문부터 방식을 바꿔보고자 한다. CVPR'22https://arxiv.org/abs/2112.02413 PointCLIP: Point Cloud Understanding by CLIPRecently, zero-shot and few-shot learning via Contrastive Vision-Language Pre-training (CLIP) have shown inspirational performance on 2D visual recognition, which learns to match images with their corresponding tex.. 2023. 8. 18. Learning to Detect and Segmentation for Open Vocabulary 리뷰 이 논문도 open vocabulary를 사용한 최신(2023) 논문인데 내가 이 분야에 대해 기본 지식이 적어서 처음 읽을때 되게 난해하다는 느낌을 받았다.. 왜냐하면 기존 open bocabulary는 class agnostic head에 초점을 맞췄고 이 논문은 class-wise head에 초점을 맞췄기 때문이다. 즉 어디든지 쓸 수 있는 head를 만드는게 아니라 각 input에 최적화된 head를 만들어내고 싶은 것이다. CVPR'23 https://arxiv.org/abs/2212.12130 Learning to Detect and Segment for Open Vocabulary Object Detection Open vocabulary object detection has been gre.. 2023. 7. 17. Open-Vocabulary Object Detection Using Captions 리뷰 이 논문은 최근 가장 핫한 연구주제인 NLP+CV의 주요 논문이다. chat GPT가 성공하고 나서 이 NLP 모델을 computer vision에 적용하려는 것으로 보인다. CVPR' 21 https://arxiv.org/abs/2011.10678 Open-Vocabulary Object Detection Using Captions Despite the remarkable accuracy of deep neural networks in object detection, they are costly to train and scale due to supervision requirements. Particularly, learning more object categories typically requires .. 2023. 6. 14. 이전 1 2 다음