
[AI/LLM] Transformer์ ์ธ์ฝ๋์ ๋์ฝ๋ ์ฝ๊ฒ ์ดํดํ๊ธฐ
ยท
๐ Research/NLP & LLM
Transformer ๋ชจ๋ธ์ ์ธ์ฝ๋์ ๋์ฝ๋๋ผ๋ ๋ ๊ฐ์ง ํต์ฌ ๋ถ๋ถ์ผ๋ก ๋๋์ด์.์ค๋์ ์ด ๋ ๋ถ๋ถ์ด ๊ฐ๊ฐ ์ด๋ค ์ญํ ์ ํ๊ณ , ์ด๋ป๊ฒ ๋ค๋ฅด๊ฒ ๋์ํ๋์ง ์น๊ทผํ๊ฒ ์ค๋ช
ํด ๋ณผ๊ฒ์!๐ ์ธ์ฝ๋ (Encoder)์ญํ : ์ธ์ฝ๋๋ ์
๋ ฅ๋ ๋ฌธ์ฅ์ ์ ๋ณด๋ฅผ ์ ์ฒด์ ์ผ๋ก ์ดํดํ๋ ค๊ณ ํด์. ์๋ฅผ ๋ค์ด, "๋๋ ๋ฐฅ์ ๋จน์๋ค"๋ผ๋ ๋ฌธ์ฅ์ด ์์ผ๋ฉด, ์ธ์ฝ๋๋ ์ด ๋ฌธ์ฅ์ ๋ชจ๋ ๋จ์ด๋ค์ด ์๋ก ์ด๋ป๊ฒ ์ฐ๊ฒฐ๋๊ณ , ๋ฌธ์ฅ์ ์ ์ฒด์ ์ธ ์๋ฏธ์ ๋งฅ๋ฝ์ด ๋ฌด์์ธ์ง๋ฅผ ํ์
ํด์.ํน์ง: ์ธ์ฝ๋๋ ๋จผ์ ๊ฐ ๋จ์ด๋ฅผ ๋ฒกํฐ๋ก ๋ณํํ ํ, ๊ฐ ๋จ์ด๋ค์ด ์๋ก ์ด๋ป๊ฒ ์ฐ๊ฒฐ๋๋์ง ํ์
ํด์. ์ด๋ ๊ฒ ์ฌ๋ฌ ๋ฒ์ ์ฐ์ฐ์ ๊ฑฐ์น๋ฉด, ๋ฌธ์ฅ์ ์๋ฏธ๋ฅผ ๋ ๊น๊ณ ์ ํํ๊ฒ ์ดํดํ ์ ์์ด์.๊ตฌ์กฐ: ์ธ์ฝ๋๋ Self-Attention๊ณผ ํผ๋ํฌ์๋ ๋คํธ์ํฌ๋ฅผ ์ด์ฉํด์. Self-Attent..