You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Self-supervised learning 분야에서 Mixup, Cutmix, ResizeMix와 유사한 data mixing augmentation을 제안한 논문으로, transformer를 backbone으로 했던 Moco-v3(contrastive learning), DINO(knowledge distilation) 방법론에 적용하여 성능 개선을 보였다.
선택 이유
Data mixing을 어떤 방식으로 self-supervised learning에 적용했는지 확인하기 위해 선택했다.
다만, 근본적으로 data mixing이 왜 좋은지를 다룬 것 같지는 않았다. 그리고 github에 Moco-v3 코드만 존재하고 DINO 코드는 없는 점이 아쉽다.
The text was updated successfully, but these errors were encountered:
Links
한 줄 요약
선택 이유
The text was updated successfully, but these errors were encountered: