2021년 9월 16일 저녁 9시에 진행된 스터디는 2분이 발표를 해주셨다. 발표자 분께서 정리해서 올려주신 자료를 참고하여 논문의 핵심인 부분이나 느낀 점을 함께 올려보았다. 1. Self-Damaging Contrastive Learning (ICML 2021) Paper Contrastive learning의 성능 향상은 ImageNet와 같은 큰 데이터를 pretrain시킴으로서 모델이 다양한 이미지의 feature를 label없이 학습할 수 있게 한다. 이전에 Contrastive learning에서는 다루지 않았던 unlabaled imbalance 데이터 (real-world 데이터)를 활용하는 SDCLR framework를 제안한다. Contrastive learning + pruning을..