https://arxiv.org/abs/2503.19786
1. Introduction

Gemma 3๋ Google DeepMind๊ฐ 2025๋ 3์ ๊ณต๊ฐํ ๊ฒฝ๋ ์คํ ๋ชจ๋ธ ์๋ฆฌ์ฆ์ ๋ฉํฐ๋ชจ๋ฌ ๋น์ ๋ฅ๋ ฅ์ ์ถ๊ฐํ ๋ชจ๋ธ์ด๋ค. Pan and Scan (P&S) ๋ฐฉ๋ฒ์ผ๋ก ์ ์ฐํ ์ด๋ฏธ์ง ํด์๋๋ฅผ ์ง์ํ๋ฉฐ, Local/Global Attention ํผํฉ ๊ตฌ์กฐ๋ก 128K ํ ํฐ ์ปจํ ์คํธ๋ฅผ ํจ์จ์ ์ผ๋ก ์ฒ๋ฆฌํ๋ค.
Google Gemma ์๋ฆฌ์ฆ๋ ์คํ์์ค ๊ฒฝ๋ LLM์ผ๋ก ์ถ๋ฐํ๋ค. Gemma 2๊น์ง๋ ํ ์คํธ ์ ์ฉ ๋ชจ๋ธ์ด์์ง๋ง, ์ค์ ์์ฉ์์๋ ์ด๋ฏธ์ง์ ํ ์คํธ๋ฅผ ํจ๊ป ์ฒ๋ฆฌํ๋ ๋ฅ๋ ฅ์ด ํ์ํ๊ธฐ์ MLLM์ผ๋ก ๋ฐ์ ํ๋ค.
๊ฒฝ๋ model์ ๋ฉํฐ๋ชจ๋ฌ ๋ฅ๋ ฅ์ ์ถ๊ฐํ ๋์ ์ฃผ์ ๊ณผ์ ๋ ๋ฉ๋ชจ๋ฆฌ ํจ์จ์ฑ์ด๋ค. Vision encoder๋ ๋ง์ token์ ์์ฑํ๋ฉฐ, ๊ธด context๋ฅผ ์ฒ๋ฆฌํ๋ ค๋ฉด KV-cache ๋ฉ๋ชจ๋ฆฌ๊ฐ ๊ธ๊ฒฉํ ์ฆ๊ฐํ๋ค. ์๋ฅผ ๋ค์ด, 128K token context๋ฅผ ์ฒ๋ฆฌํ๋ ค๋ฉด KV-cache๋ง์ผ๋ก๋ ์ GB์ ๋ฉ๋ชจ๋ฆฌ๊ฐ ํ์ํ๋ค. Gemma 3๋ ์ด ๋ฌธ์ ๋ฅผ Local/Global Attention ํผํฉ ๊ตฌ์กฐ๋ก ํด๊ฒฐํ๋ค.
2. Technical Approach
Gemma 3๋ ๊ฒฝ๋ model์ ๋ฉํฐ๋ชจ๋ฌ ๋ฅ๋ ฅ์ ํจ์จ์ ์ผ๋ก ์ถ๊ฐํ๊ธฐ ์ํด ๋ช ๊ฐ์ง ํต์ฌ ์ค๊ณ๋ฅผ ์ฑํํ๋ค.
2.1. SigLIP Vision Encoder
SigLIP Vision Encoder๋ ์ด๋ฏธ์ง๋ฅผ 256๊ฐ์ ๊ณ ์ ๋ soft token์ผ๋ก encodingํ๋ค. ์ด๋ ๋ฉ๋ชจ๋ฆฌ ํจ์จ์ฑ์ ๋ณด์ฅํ๋ฉด์๋ ์ถฉ๋ถํ ์๊ฐ ์ ๋ณด๋ฅผ ์ ๋ฌํ๋ ํต์ฌ ์ค๊ณ๋ค.
ํต์ฌ ์์ด๋์ด
- ๊ณ ์ ๋ token ์(256๊ฐ)๋ก ๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ ์์ธก ๊ฐ๋ฅ
- Contrastive learning์ผ๋ก ํ์ต๋ vision encoder
- ์ด๋ฏธ์ง-ํ ์คํธ ์ ๋ ฌ์ ํจ๊ณผ์
์ธ๋ถ์ฌํญ
- ์ด๋ฏธ์ง ์ ๊ทํ: 896x896 resolution์ผ๋ก ์ ๊ทํ
- Token ์ ์ ํ: 256๊ฐ์ ๊ณ ์ ๋ soft token
- ๋ฉ๋ชจ๋ฆฌ ํจ์จ์ฑ: ์ ํ๋ token ์๋ก ๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ ์ต์ํ
- ์ ๋ณด ๋ณด์กด: ์ถฉ๋ถํ ์๊ฐ ์ ๋ณด ์ ๋ฌ
SigLIP Vision Encoder๋ ๊ณ ์ ๋ token ์๋ก ๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ๋์ ์์ธก ๊ฐ๋ฅํ๊ฒ ํ์ฌ ๊ฒฝ๋ model์ ์ ํฉํ ์ค๊ณ๋ค. 256๊ฐ์ soft token์ผ๋ก ์ ํํ๋ฉด์๋ ์ด๋ฏธ์ง-ํ ์คํธ ์ ๋ ฌ ์ฑ๋ฅ์ด ์ฐ์ํ์ฌ, ๋ฉ๋ชจ๋ฆฌ ํจ์จ์ฑ๊ณผ ์ฑ๋ฅ์ ๊ท ํ์ ์ ๋ฌ์ฑํ๋ค.
2.2. Pan and Scan (P&S)
Pan and Scan (P&S) ๋ฐฉ๋ฒ์ LLaVA์์ ์๊ฐ์ ๋ฐ์ ์ ์ฐํ ์ด๋ฏธ์ง resolution์ ์ง์ํ๋ค. ๊ณ ์ ๋ resolution ๋์ ๋ค์ํ ์ข ํก๋น์ ์ด๋ฏธ์ง๋ฅผ ํจ์จ์ ์ผ๋ก ์ฒ๋ฆฌํ ์ ์๊ฒ ํด์ค๋ค.
Pan and Scan์ ๊ณ ํด์๋๋ ๋น์ ์ฌ๊ฐํ ์ด๋ฏธ์ง๋ฅผ ๊ณ ์ ๋ resolution์ผ๋ก ๋ฆฌ์ฌ์ด์ฆํ๋ ๋์ , adaptive windowing ์๊ณ ๋ฆฌ์ฆ์ ํตํด ์ด๋ฏธ์ง๋ฅผ ์ฌ๋ฌ ๊ฐ์ ๊ฒน์น์ง ์๋ crop์ผ๋ก ๋ถํ ํ๋ค. ๊ฐ crop์ ์๋ณธ ์ด๋ฏธ์ง์ aspect ratio๋ฅผ ์ ์งํ ์ฑ๋ก ๋ ๋ฆฝ์ ์ผ๋ก vision encoder์ ์ํด ์ฒ๋ฆฌ๋๋ฉฐ, ์ดํ language model์์ ํตํฉ๋๋ค. ์ด ๋ฐฉ์์ ์ด๋ฏธ์ง๋ฅผ ๊ฐ์ ๋ก ์ ์ฌ๊ฐํ์ผ๋ก ๋ณํํ๊ฑฐ๋ ํด์๋๋ฅผ ๋ฎ์ถ์ง ์์๋ ๋๋ฏ๋ก, ์๊ณก ์์ด ๋ค์ํ ์ข ํก๋น์ ์ด๋ฏธ์ง๋ฅผ ํจ์จ์ ์ผ๋ก ์ฒ๋ฆฌํ ์ ์๋ค. ์๋ฅผ ๋ค์ด, ๊ฐ๋ก๋ก ๊ธด ํ๋ ธ๋ผ๋ง ์ด๋ฏธ์ง๋ ์ธ๋ก๋ก ๊ธด ํฌ์คํฐ ์ด๋ฏธ์ง๋ ์๋ณธ ๋น์จ์ ์ ์งํ๋ฉด์ ์ฌ๋ฌ ๊ฐ์ crop์ผ๋ก ๋๋์ด ์ฒ๋ฆฌํ ์ ์๋ค.
ํต์ฌ ์์ด๋์ด
- ์ค์ ์์ฉ์์๋ ๋ค์ํ ํฌ๊ธฐ์ ๋น์จ์ ์ด๋ฏธ์ง๊ฐ ์ ๋ ฅ๋จ
- ๊ณ ์ ๋ resolution์ ์ด๋ฏธ์ง ์๊ณก์ด๋ ์ ๋ณด ์์ค ๋ฐ์ ๊ฐ๋ฅ
- ์ ์ฐํ resolution ์ฒ๋ฆฌ๋ก ๋ค์ํ ์ด๋ฏธ์ง ํจ์จ์ ์ฒ๋ฆฌ
์ธ๋ถ์ฌํญ
- ์ข ํก๋น ์ ์ง: ์๋ณธ ์ด๋ฏธ์ง์ ์ข ํก๋น ๋ณด์กด
- ํจ์จ์ ์ฒ๋ฆฌ: ๋ค์ํ ํฌ๊ธฐ์ ์ด๋ฏธ์ง๋ฅผ ํจ์จ์ ์ผ๋ก ์ฒ๋ฆฌ
- ์ ๋ณด ์์ค ์ต์ํ: ์ด๋ฏธ์ง ์๊ณก ์ต์ํ
2.3. Local/Global Attention


Local/Global Attention ํผํฉ ๊ตฌ์กฐ๋ ๊ธด ์ปจํ ์คํธ๋ฅผ ์ฒ๋ฆฌํ๋ฉด์๋ KV-cache ๋ฉ๋ชจ๋ฆฌ ์ฆ๊ฐ๋ฅผ ๊ด๋ฆฌํ๊ธฐ ์ํ ํต์ฌ ์ค๊ณ๋ค. ์ด๋ ๊ฒฝ๋ ๋ชจ๋ธ์์ ๊ธด ์ปจํ ์คํธ๋ฅผ ์ง์ํ๋ ํ์ ์ ์ธ ๋ฐฉ๋ฒ์ด๋ค.
ํต์ฌ ์์ด๋์ด
- ๊ธด ์ปจํ ์คํธ๋ฅผ ์ฒ๋ฆฌํ๋ ค๋ฉด KV-cache ๋ฉ๋ชจ๋ฆฌ๊ฐ ๊ธ๊ฒฉํ ์ฆ๊ฐ
- ๋ชจ๋ ํ ํฐ์ ๋ํด global attention์ ์ํํ๋ฉด ๋ฉ๋ชจ๋ฆฌ ๋ถ์กฑ
- Local attention๊ณผ Global attention์ ํผํฉํ์ฌ ํจ์จ์ฑ๊ณผ ์ฑ๋ฅ ๊ท ํ
์ธ๋ถ์ฌํญ
- Local Attention Layer:
- 1024 token ๋ฒ์์์ ์๋
- ๊ทผ์ฒ token๋ง ์ฐธ์กฐํ์ฌ ๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ ์ ํ์
- ๋น ๋ฅธ ๊ณ์ฐ ๊ฐ๋ฅ
- Global Attention Layer:
- ์ ์ฒด ์ํ์ค์ attention ์ํ
- ์ ์ฒด ๋งฅ๋ฝ ์ ์ง
- 5๊ฐ์ local layer๋ง๋ค 1๊ฐ์ global layer ๋ฐฐ์น (5:1 ๋น์จ)
- ํผํฉ ๊ตฌ์กฐ:
- Local layer: ๋น ๋ฅธ ์ฒ๋ฆฌ, ์ ํ๋ ๋ฉ๋ชจ๋ฆฌ
- Global layer: ์ ์ฒด ๋งฅ๋ฝ ์ ์ง
- ๋ ๊ฐ์ง๋ฅผ ์ ์ ํ ํผํฉํ์ฌ ํจ์จ์ฑ๊ณผ ์ฑ๋ฅ ํ๋ณด
Local/Global Attention ํผํฉ ๊ตฌ์กฐ๋ 128K token context๋ฅผ ์ง์ํ๋ฉด์๋ KV-cache ๋ฉ๋ชจ๋ฆฌ ์ฆ๊ฐ๋ฅผ ํฌ๊ฒ ์ ํํ๋ค. ๋ชจ๋ layer์์ full attention์ ์ํํ๋ ๊ฒฝ์ฐ์ ๋น๊ตํ๋ฉด, local layer๋ 1024 token window๋ง ์ฌ์ฉํ๋ฏ๋ก KV cache ๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ๋์ด ํฌ๊ฒ ๊ฐ์ํ๋ค. Global layer๋ ์ ์ฒด 128K token์ attentionํ์ง๋ง ์ ์ฒด layer์ ์ฝ 1/6(5:1 ๋น์จ)๋ง global layer์ด๋ฏ๋ก, ์ ์ฒด์ ์ธ ๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ๋์ full attention ๋๋น ํ์ ํ ๋ฎ๋ค.
2.4. RoPE Rescaling for Long Context

RoPE Rescaling์ 128K token์ long context๋ฅผ ์ง์ํ๊ธฐ ์ํ ๊ธฐ์ ์ด๋ค. ๋ชจ๋ธ์ ์ฒ์๋ถํฐ 128K sequence๋ก ํ์ตํ๋ ๋์ , 32K sequence๋ก pre-training ํ RoPE rescaling์ ํตํด 4B, 12B, 27B model์ 128K token์ผ๋ก ํ์ฅํ๋ค.
RoPE๋ ๊ฐ ์์น์ rotation angle์ ํ ๋นํ์ฌ ์์น ์ ๋ณด๋ฅผ ์ธ์ฝ๋ฉํ๋ค. ํ์ค RoPE๋ ํ์ต ์ ๋ณธ ์ ์๋ ๊ธด ์์น์ ๋ํด extrapolation์ ์๋ํ์ง๋ง, ๋จผ ๊ฑฐ๋ฆฌ์ ๋จ์ด๋ค์ด ๋งค์ฐ ์ ์ฌํ embedding ๊ฐ์ ๊ฐ์ง๊ฒ ๋์ด ์๋์ ์์น๋ฅผ ๊ตฌ๋ถํ๊ธฐ ์ด๋ ค์์ง๋ค.
"Extending Context Window of Large Language Models via Positional Interpolation" (Chen et al., 2023)์์ ์ ์ํ Position Interpolation์ ์ด๋ฅผ interpolation ๋ฌธ์ ๋ก ์ฌ๊ตฌ์ฑํ๋ค. ์์น ์ธ๋ฑ์ค๋ฅผ ์ค์ผ์ผ๋งํ์ฌ ๋ชจ๋ธ์ด ํ์ตํ ์๋ ๋ฒ์ ๋ด์ ์ ์งํ๋ ๋ฐฉ์์ด๋ค. ์๋ฅผ ๋ค์ด, 2,048 token์ผ๋ก ํ์ต๋ ๋ชจ๋ธ์ด 4,096 token์ ์ฒ๋ฆฌํด์ผ ํ ๋, ์์น 4,096์ ์์น 2,048๋ก ๋งคํํ์ฌ rotation angle์ด ๋ชจ๋ธ์ด ์ต์ํ ๋ฒ์ ๋ด์ ์๋๋ก ํ๋ค. Scaling factor๋ s = new_context_length / old_context_length๋ก ๊ณ์ฐ๋๋ฉฐ, ์ด๋ RoPE์ rotation angle ๊ณ์ฐ์ ์ ์ฉ๋๋ค.
ํต์ฌ ์์ด๋์ด
- 32K sequence๋ก pre-training ํ RoPE rescaling์ผ๋ก 128K๋ก ํ์ฅ
- positional interpolation๊ณผ ์ ์ฌํ ๊ณผ์ ์ฌ์ฉ
- Scaling factor 8์ด ์ค์ฉ์ ์ผ๋ก ์ ์๋ํจ (128K / 32K = 4์ด์ง๋ง, ์ค์ ๋ก๋ 8 ์ฌ์ฉ)
์ธ๋ถ์ฌํญ
- RoPE Base Frequency ์กฐ์ : Global self-attention layer์ RoPE base frequency๋ฅผ Gemma 2์ 10k์์ 1M์ผ๋ก ์ฆ๊ฐ์ํด. ์ด๋ ๊ธด ์ปจํ ์คํธ์์ ๋ ์ ๋ฐํ ์์น ์ธ์ฝ๋ฉ์ ๊ฐ๋ฅํ๊ฒ ํ๋ค.
- Local Layer Frequency ์ ์ง: Local self-attention layer๋ 10k frequency ์ ์ง
- Positional Interpolation: Global self-attention layer์ span์ ํ์ฅํ๊ธฐ ์ํด positional interpolation ๊ณผ์ ์ ์ฉ. ์์น ์ธ๋ฑ์ค๋ฅผ ์ค์ผ์ผ๋งํ์ฌ ํ์ต ๋ฒ์ ๋ด์ ์ ์ง
- Scaling Factor: ์คํ์ ์ผ๋ก scaling factor 8์ด ํจ๊ณผ์ ์์ ํ์ธ
2.5. Knowledge Distillation
Gemma 3๋ ์ฌ์ ํ์ต ๋จ๊ณ์์ Knowledge Distillation์ ์ ์ฉํ์ฌ ๊ฒฝ๋ model์ ์ฑ๋ฅ์ ํฅ์์์ผฐ๋ค. ์ด๋ฅผ ํตํด Gemma3-4B-IT๊ฐ Gemma2-27B-IT์ ๊ฒฝ์๋ ฅ ์๋ ์ฑ๋ฅ์ ๋ฌ์ฑํ ์ ์์์ผ๋ฉฐ, ์์ model์ด ํฐ model์ ์ฑ๋ฅ์ ๊ทผ์ ํ ์ ์๊ฒ ํด์ฃผ์ด ๊ฒฝ๋ model์ ์ค์ฉ์ฑ์ ํฌ๊ฒ ํฅ์์์ผฐ๋ค. ๋ํ novel post-training recipe์ ๊ฒฐํฉํ์ฌ ์ํ, ์ถ๋ก , ์ฑํ , ์ง์ ์ํ, ๋ค๊ตญ์ด ๋ฅ๋ ฅ์ ํฌ๊ฒ ํฅ์์์ผ ๊ฒฝ๋ model๋ ์ถฉ๋ถํ ๊ฐ๋ ฅํ ์ฑ๋ฅ์ ๋ฌ์ฑํ ์ ์๊ฒ ํ๋ค.
3. Experimental Results
Gemma 3๋ ๊ฒฝ๋ ๋ชจ๋ธ์์๋ ๋ถ๊ตฌํ๊ณ ๊ฐ๋ ฅํ ์ฑ๋ฅ์ ๋ณด์๋ค. Gemma3-4B-IT๋ Gemma2-27B-IT์ ๊ฒฝ์๋ ฅ ์๋ ์ฑ๋ฅ์ ๋ฌ์ฑํ์ผ๋ฉฐ, ์ด๋ Knowledge Distillation๊ณผ ํจ์จ์ ์ธ ์ํคํ ์ฒ ์ค๊ณ์ ํจ๊ณผ๋ฅผ ๋ณด์ฌ์ค๋ค. ์์ model์ด ํฐ model์ ์ฑ๋ฅ์ ๊ทผ์ ํ ์ ์๋ค๋ ๊ฒ์ ๊ฒฝ๋ model์ ์ค์ฉ์ฑ์ ํฌ๊ฒ ํฅ์์ํจ๋ค.
Gemma3-27B-IT๋ Gemini-1.5-Pro์ ๋น๊ต ๊ฐ๋ฅํ ์ฑ๋ฅ์ ๋ณด์์ผ๋ฉฐ, ํนํ ์ํ, ์ถ๋ก , ์ฑํ , ์ง์ ์ํ ๋ฅ๋ ฅ์์ ํฌ๊ฒ ํฅ์๋์๋ค. ์ด๋ novel post-training recipe์ ํจ๊ณผ๋ฅผ ๋ณด์ฌ์ฃผ๋ฉฐ, ๊ฒฝ๋ ๋ชจ๋ธ๋ ์ถฉ๋ถํ ๊ฐ๋ ฅํ ์ฑ๋ฅ์ ๋ฌ์ฑํ ์ ์์์ ์ ์ฆํ๋ค.
Extended Context ๋ฅ๋ ฅ์ ๊ธด ๋ฌธ์ ์ฒ๋ฆฌ์ ๋ฉํฐํด ๋ํ์์ ์ค์ง์ ์ธ ์ด์ ์ ์ ๊ณตํ๋ค. 128K token context๋ก ๊ธด ๋ฌธ์๋ฅผ ํ ๋ฒ์ ์ฒ๋ฆฌํ ์ ์์์ผ๋ฉฐ, ๋ฌธ์ ์ ์ฒด์ ๋งฅ๋ฝ์ ์ ์งํ๋ฉด์ ํน์ ๋ถ๋ถ์ ๋ํ ์ง๋ฌธ์ ์ ํํ๊ฒ ๋ตํ ์ ์์๋ค. ๋ํ ๋ฉํฐํด ๋ํ์์๋ ๋ํ ๋งฅ๋ฝ์ ์ค๋ ์ ์งํ ์ ์์ด, ์ฌ์ฉ์์์ ๊ธด ๋ํ์์๋ ์ผ๊ด์ฑ ์๋ ์๋ต์ ์ ๊ณตํ ์ ์์๋ค.
Local/Global Attention ํผํฉ ๊ตฌ์กฐ๋ ๋ฉ๋ชจ๋ฆฌ ํจ์จ์ฑ์ ํฌ๊ฒ ํฅ์์์ผฐ๋ค. ๊ธด ์ปจํ ์คํธ๋ฅผ ์ฒ๋ฆฌํ๋ฉด์๋ KV-cache ๋ฉ๋ชจ๋ฆฌ ์ฆ๊ฐ๋ฅผ ์ ํํ์ฌ, ์๋น์์ฉ ํ๋์จ์ด์์๋ ์คํ ๊ฐ๋ฅํ๊ฒ ํ๋ค.
4. Conclusion
Gemma 3์ ๊ธฐ์ ์ ํน์ด์ ์ ๊ฒฝ๋ model์ ๋ฉํฐ๋ชจ๋ฌ ๋ฅ๋ ฅ์ ํจ์จ์ ์ผ๋ก ์ถ๊ฐํ ์ค๊ณ์ ์๋ค. Local/Global Attention ํผํฉ ๊ตฌ์กฐ๋ 5:1 ๋น์จ๋ก local layer(1024 token span)์ global layer๋ฅผ ๋ฐฐ์นํ์ฌ, 128K token context๋ฅผ ์ง์ํ๋ฉด์๋ KV-cache ๋ฉ๋ชจ๋ฆฌ ์ฆ๊ฐ๋ฅผ ์ ํํ๋ค. ์ด๋ ๋ชจ๋ token์ ๋ํด global attention์ ์ํํ๋ ๊ธฐ์กด ๋ฐฉ์์ ๋ฉ๋ชจ๋ฆฌ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๋ ํต์ฌ ๋ฉ์ปค๋์ฆ์ด๋ค. SigLIP Vision Encoder๋ ์ด๋ฏธ์ง๋ฅผ 256๊ฐ์ ๊ณ ์ ๋ soft token์ผ๋ก encodingํ์ฌ ๋ฉ๋ชจ๋ฆฌ ์ฌ์ฉ๋์ ์์ธก ๊ฐ๋ฅํ๊ฒ ํ๋ฉฐ, Pan and Scan ๋ฐฉ๋ฒ์ผ๋ก ๋ค์ํ ์ข ํก๋น์ ์ด๋ฏธ์ง๋ฅผ ํจ์จ์ ์ผ๋ก ์ฒ๋ฆฌํ๋ค. Knowledge Distillation์ ์ฌ์ ํ์ต ๋จ๊ณ์์ ์ฌ์ฉ๋์ด Gemma3-4B-IT๊ฐ Gemma2-27B-IT์ ๊ฒฝ์๋ ฅ ์๋ ์ฑ๋ฅ์ ๋ฌ์ฑํ ์ ์๊ฒ ํ๋ค.
์ด๋ฌํ ๊ธฐ์ ์ ์ค๊ณ๋ฅผ ํตํด ๊ฒฝ๋ model(1B ~ 27B parameter)์ด ์๋น์์ฉ ํ๋์จ์ด์์๋ ์คํ ๊ฐ๋ฅํ๋ฉด์๋ ๊ฐ๋ ฅํ ๋ฉํฐ๋ชจ๋ฌ ์ฑ๋ฅ์ ์ ๊ณตํ๋ค.