You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
SAM의 output token과 GT mask 차이를 measure하는 HQ-Output Token을 추가하여 mask quality를 높인다.
즉, 기존 SAM의 process를 따라가면서 target(tiny object)에 대한 segmentation 성능 향상을 목적으로 함
[Method]
SAM
decoder layer에서 각 attention layer에는 point embedding to token / position embedding to image 적용 (on q, k)
즉, image embedding과 token embedding 사이에 position-aware two-way attention 수행
HQ-SAM
high-quality output token
기존 방식 대비 적은 parameter만 추가되기 때문에 time/data efficient
SAM을 feeze하기에 overfitting 방지
global-local fusion for high-quality features
feature 3개 사용
early layer : local (64x64)
final layer : global (64x64)
mask feature (256x256)
convolution on 3 features
training and inference
sample mixed types of prompts
add random Gaussian noise in the boundary of GT mask
HQ-Output Token의 attention map이 더 detail하다.
[Experiments]
HQ-SAM은 SAM의 boundary가 미흡하다고 tackle하기 때문에 boundary metric 추가 (B 붙은건 boundary)
SAM (baseline)
DIS, ThinObject dataset에서 유난히 성능이 낮은데, 해당 dataset의 train data가 HQSeg-44K에 포함되어 있어서 그런 것으로 추정한다. (supplementary material의 table 16을 참고하면, 해당 train data를 제외하더라도 성능차가 꽤 존재한다.)
github : https://github.com/SysCV/SAM-HQ
[Introduction]
SAM 한계
HQ-SAM : 기존 SAM의 0.5% 정도의 추가 parameter (freeze SAM)
HQSeg-44K : 학습 데이터 (dataset 6개 + fine-grained mask)
[Related work]
high-quality segmentation
[Method]
SAM
HQ-SAM
[Experiments]
HQ-SAM은 SAM의 boundary가 미흡하다고 tackle하기 때문에 boundary metric 추가 (B 붙은건 boundary)
이외에 다양한 task에서 SAM의 성능을 뛰어넘는 결과를 보여줌
The text was updated successfully, but these errors were encountered: