728x90 ๐ Research/Deep Learning9 [๋ ผ๋ฌธ ๋ฆฌ๋ทฐ] Class-Balanced Loss Based on Effective Number of Samples / Class imbalance๋ฅผ ๊ทน๋ณตํ๊ธฐ ์ํ ๋ฐฉ๋ฒ Class Imabalance ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๋ ๋ฐฉ๋ฒ์ ์ ์ํ๋ CVPR 2019์ ๊ณต๊ฐ๋ ๋ ผ๋ฌธ์ ์๊ฐํฉ๋๋ค. ์ด๋ฒ ๋ฆฌ๋ทฐ๋ ๋ฌธ์ ์ ์์ ํด๊ฒฐํ๋ ๋ฐฉ๋ฒ์ ๊ฐ๋ ์ ์ผ๋ก ์ค๋ช ํฉ๋๋ค. (๋ํ ์ผ ์ ์ธ) Class Imbalance ? Class Imbalance ๋ฌธ์ ๋ผ๋ ๊ฒ์ ๋ฅ๋ฌ๋์์ ๋คํธ์ํฌ๋ฅผ ํ์ต์ํฌ ๋ ์ฌ์ฉ๋๋ training data ์ class ๊ฐ์๊ฐ balance ๊ฐ ๋ง์ง ์๋ ์ํฉ์ ๋งํฉ๋๋ค. ์ค์ ๋ฐ์ดํฐ์์๋ ๋งค์ฐ ๋น๋ฒํ ์ผ์ด๊ธฐ์ ์ค์ํ task ๋ผ๊ณ ๋ณผ ์ ์์ต๋๋ค. ํ๊ณ์์๋ Long tail data ๋ผ๋ ๋ฐ์ดํฐ ๊ฐ์๊ฐ ๋ง์ class ๋ถํฐ ์์ฃผ ์ ์ class ๊น์ง ๋ค์ํ๊ฒ ๋ถํฌํ๋ ๋ฐ์ดํฐ์ ์ ์ฌ์ฉํ์ฌ class imabalance ๋ฌธ์ ์์ ์ฑ๋ฅ์ ๋น๊ตํฉ๋๋ค. ์ผ๋ฐ์ ์ธ ํด๊ฒฐ ๋ฐฉ๋ฒ ? Clas.. 2022. 5. 21. [๋ ผ๋ฌธ ๋ฆฌ๋ทฐ] END-TO-END OPTIMIZED IMAGE COMPRESSION | ๋ฅ๋ฌ๋ ๋ฐฉ์์ ์์ ์์ถ ICLR 2017 ์ ๋ฐํ๋ ๋ ผ๋ฌธ์ผ๋ก ์ ๋ชฉ ๊ทธ๋๋ก end-to-end ๋ฐฉ์์ผ๋ก ์ด๋ฏธ์ง ์์ถ ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ์ต์ ํํ๋ ๋ฐฉ๋ฒ์ ์ ์ํ๋ ๋ ผ๋ฌธ์ ๋๋ค. ์ด ๋ถ์ผ์ ๋ํ ์ง์์ด ๊ทธ๋ ๊ฒ ๋ง์ง ์์์ ๋ ผ๋ฌธ ๋ฆฌ๋ทฐ๊ฐ ํ์ (?)ํ ์ ์์ต๋๋ค... ใ - ๊ธฐ๋ณธ์ ์ธ ์์ ์์ถ ์ค๋ช : https://mvje.tistory.com/86?category=1033082 ์์ ์์ถ - JPEG, MPEG ์์ ์์ถ ๊ด๋ จ ๋ด์ฉ์ ๋ค์ ๊ณต๋ถํ ๊ธฐํ๊ฐ ์๊ฒจ์ ๊น๋จน๊ธฐ ์ ์ ์ ๋ฆฌํฉ๋๋ค! ๋ฏธ๋์ด ๋ฐ์ดํฐ๋ ๊ธฐํ๊ธ์์ ์ผ๋ก ๋ง์์ง๊ณ ์ด๋ฅผ ์ ์ฅํ ๊ณต๊ฐ์ ๋ฌผ๋ฆฌ์ ์ผ๋ก ํ๊ณ๊ฐ ์๊ธฐ ๋๋ฌธ์ ์์ ์์ถ์ ์ค์ํ mvje.tistory.com Abstract Nonlinear analysis transformation, uniform quantizer, no.. 2022. 5. 14. [๋ ผ๋ฌธ ๋ฆฌ๋ทฐ] Learning Transferable Visual Models From Natural Language Supervision / CLIP / Multi-modal network Open AI์์ ๊ฒ์ฌํ(ICML2021) Contrastive Language-Image Pre-training(CLIP)๋ฅผ ์ ์ํ ๋ ผ๋ฌธ์ ์๊ฐํฉ๋๋ค. Introduction & Motivation ๋ฅ๋ฌ๋์ด computer vision์ ๊ฑฐ์ ๋ชจ๋ ๋ถ์ผ์์ ๊ต์ฅํ ์ ํ์ฉ๋์ง๋ง ํ์ฌ ์ ๊ทผ ๋ฐฉ์์๋ ๋ช๊ฐ์ง ๋ฌธ์ ๊ฐ ์์ต๋๋ค. ๊ธฐ์กด์ vision model๋ค์ ํ์ต๋ task์๋ ์ฑ๋ฅ์ด ์ฐ์ํ์ง๋ง ์๋ก์ด task์ ์ ์ฉ์ํค๊ธฐ ์ํด์๋ ์๋ก ํ์ต์ ์ํค์ผ ํ๋(๊ทธ๋ฌ๋ฉด ์๋ก์ด ๋ฐ์ดํฐ์ ๊ณผ ์ถ๊ฐ ๋ ์ด๋ธ๋ง์ด ํ์..) ๋ฒ๊ฑฐ๋ก์(?) ์ด ์์ต๋๋ค. ๋ฒค์น๋งํฌ์์ ์ ์ํ๋๋ ๋ช๋ช model๋ค์ stress test์์ ์ข์ง ์์ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์ฌ์ฃผ๊ธฐ๋ ํฉ๋๋ค. ๋์์ผ๋ก raw text์ image๋ฅผ pair๋ก ํ์ต์ํค๋ ๋ฐฉ๋ฒ.. 2022. 2. 26. [๋ ผ๋ฌธ ๋ฆฌ๋ทฐ] A Simple Framework for Contrastive Learning of Visual Representations / SimCLR / Self-supervised Self-spuervised learning ์์ ์ข์ ์ฑ๋ฅ์ ๋ด๋ Contrasive learning ์ด๋ผ๋ ๊ฐ๋ ์ ์๊ฐํ๊ธฐ ์ํด ICML2020์ ๊ฒ์ฌ๋ ๋ณธ ๋ ผ๋ฌธ์ ์ค๋ช ํฉ๋๋ค. ์๋ ์ฌ์ดํธ์ ๊ทธ๋ฆผ์ผ๋ก ์ค๋ช ์ด ์ ๋์ด ์์ด์, ์์ธํ ๋ด์ฉ์ ์ฐธ๊ณ ๋ฐ๋๋๋ค. https://amitness.com/2020/03/illustrated-simclr/ Contrasive Learning ์ฐ์ , contrasive learning ์ 2๊ฐ์ input์ ๋คํธ์ํฌ์ ์ฃผ์ ํ์ ๋, ์ด๋ค์ด similar ํ input ์ธ์ง differentํ input ์ธ์ง๋ฅผ ๊ตฌ๋ณํด์ฃผ๊ธฐ ์ํ ํ์ต ๋ฐฉ๋ฒ์ ๋๋ค. ์๋ฅผ ๋ค์ด, ์๋ ๊ทธ๋ฆผ์์๋ Image๋ ๊ณ ์์ด์๋ similar ํ๊ณ ๊ฐ์์ง, ์ฝ๋ผ๋ฆฌ์๋ different ํฉ๋๋ค. ๊ทธ๋ฐ๋ฐ, .. 2022. 1. 27. [๋ ผ๋ฌธ ๋ฆฌ๋ทฐ] Swin Transformer: Hierarchical Vision Transformer using Shifted Windows / ๋ฐ์ ๋ ํํ์ ViT NLP ๋ถ์ผ์์ ์ด์๊ฐ ๋์๋ transformer('Attention Is All You Need/NIPS2017')๊ตฌ์กฐ๋ฅผ vision task์ ์ ๋ชฉํ Vision Transformer(ViT)์ ViT์์ ๊ฐ์ ๋ ๊ตฌ์กฐ์ธ Swin Transformer์ ๋ํด ์ค๋ช ํฉ๋๋ค. * ๋ ผ๋ฌธ A. AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE / ICLR2021 B. Swin Transformer: Hierarchical Vision Transformer using Shifted Windows / ICCV2021 1. Vision Transformer (ViT) Computer vision ๋ถ์ผ์์ ๊ธฐ์กด์ self attent.. 2022. 1. 8. [๋ ผ๋ฌธ ๋ฆฌ๋ทฐ] Non-local Neural Networks / Vision Transformer์ ์์ด Non-local network ์ ๋ฆฌ... CNN ์ ์์ layer์์๋ spatial domain์์์ localํ ์์ญ์ correlation์, ๊น์ layer์์๋ ์๋์ ์ผ๋ก globalํ ์์ญ๊น์ง์ correlation์ ์ถ์ถํ๋ local operator ๋ก ๋ณผ ์ ์์ต๋๋ค. ๋ํ layer๊ฐ ๊น์ด์ง๋๋ผ๋ ํ๋ฒ์ ์ฐ์ฐ์์ ์ ์ฒด ์์ญ์ correlation์ ์ถ์ถํ๋ non-local ์ฐ์ฐ๊ณผ๋ ์ฐจ์ด๊ฐ ์์ต๋๋ค. ๋๋ฌธ์ CNN์ spatial domain ๋๋ temporal domain ์์์ ๊ฑฐ๋ฆฌ๊ฐ ๋จผ feature ๋ค๊ฐ์ correlation์ด ์ถ์ถ๋๊ธฐ ํ๋ ๊ตฌ์กฐ์ ๋๋ค. ๋ณธ ๋ ผ๋ฌธ์ ์ด๋ฅผ ๊ฐ์ ํ๊ธฐ ์ํ Non-local operation์ ์ ์ํฉ๋๋ค. ์๋ ๊ทธ๋ฆผ์ non-local block.. 2021. 12. 12. ์ด์ 1 2 ๋ค์ 728x90