Thesis(4)
-
U-Net: Convolutional Networks for Biomedical Image Segmentation
이번 리뷰는 세그멘테이션을 하기 위해 많이 쓰이고 있는 U-Net에 대해 리뷰하고자 합니다.목차는 다음과 같이 구성됩니다.0. BackGround1. Coarse Feature map to Dense prediction 2. Architecture Detail3. Strategic4. Experiment 0.BackGroundUNet은 FCN을 기반으로 하여 개발되었으며, 설명에 앞서 간단하게 FCN의 개념과 U-Net의 기반이 된 이유를 설명할 것입니다.U-Net은 FCN(Fully convolutional network)을 토대로 확장한 개념이기 때문에 명확한 이해를 돕기 위해 우선적으로 FCN을 이해하는것이 중요합니다.Image classification 모델들은 기본적으로 ..
2024.04.24 -
Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
본 리뷰는 마이크로소프트에서 발표한 Swin Transformer를 다룸. 이전 논문 리뷰에 Attention Is All You Need를 다뤘는데, 이미지의 픽셀이 늘어나면 늘어날수록 모든 Patch의 조합에 대해 self-attention을 수행하는것은 불가능해짐. Hierarchical Vision Transformer using Shifted Windows는 한국어로 직역하면 "이동된 window를 사용하는 계층적 비전 트랜스포머"가 되는데, "계층적(Hierarchical)"은 여러 단계의 해상도나 컨텍스트를 고려하는 모델 구조를 의미하고, self-attention 계산을 위해 창(window)의 위치를 이동시키는 메커니즘임. 0. Background Previous Problem 1. 기존..
2024.01.16 -
Transformer (Attention Is All You Need)
Attention Is All You Need에 대해 리뷰함. 이전에 다른 블로그와 논문리뷰를 모두 읽고 들어봤지만, 상위레벨에서 리뷰된것들 뿐이라, 하위레벨까지 리뷰하려고 함. 하지만 이렇게 리뷰할 때, 양이 너무 많이지고, 처음보는 사람들은 뒤로갈수록 앞의 내용이 기억이 안날수 있었음. 그래서 최소한의 하위레벨설명으로 줄였음. 0. Background Seq2Seq 다음 seq2seq 모델을 보면, LSTM cell들이 하나씩있고, 인코더와 디코더의 파트로 나뉘어져있는데, 토큰들을 각 lstm에 넣게되면, HIdden state(LSTM의 기억셀 Ct C t 와, 결과값 ht h t )로 나오는데, 뒤로 갈수록 (h1,h2,h3) 앞에있는 히든스테이트를 반영하게 됨. (lstm의 특징) 마지막으로 h..
2023.12.12 -
MSINet: Twins Contrastive Search of Multi-Scale Interaction for Object ReID
1. Introduce [NAS & REID] MSInet은 신경망 아키텍처에서 feature 찾는 것(NAS) 을 개선한 것으로, REID는 학습할 객체의 특성을 기반으로 유사성을 보는데, (코사인,L1L2등) 유사성의 스코어에 따라 계산하고 객체를 재식별하여 이미지를 비교함. [Twins Contrastive Mechanism (TCM)] Unbinding Categories TCM는 학습 및 검증 데이터 세트의 클래스를 분리 하는 메커니즘으로 시작합니다. ReID에서는 학습 세트와 검증 세트가 서로 다른 카테고리를 가질 수있음 즉 고정되어있는 클래스가 아닌 TCM은 훈련 및 검증 세트에서 더 넓은 클래스의 중첩을 동적으로 조정하여 클래스간의 차이를 일반화하는 메커니즘. Providing Approp..
2023.11.25