๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ
728x90

๐Ÿ“– Theory/AI & ML15

์ „ํ†ต์ ์ธ ๋จธ์‹ ๋Ÿฌ๋‹ ๋ชจ๋ธ: SVM, Decision Tree, Random Forest, Gradient Boosting ์˜ค๋Š˜์€ ๋จธ์‹ ๋Ÿฌ๋‹์—์„œ ์ „ํ†ต์ ์ด๊ณ  ๊ธฐ๋ณธ์ด ๋˜๋Š” ๋„ค ๊ฐ€์ง€ ์ฃผ์š” ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ๊ฐœ๋…์ ์œผ๋กœ ์‚ดํŽด๋ณผ ๊ฑฐ์˜ˆ์š”. SVM(Support Vector Machine), Decision Tree, Random Forest, Gradient Boosting์€ ๊ฐ๊ฐ ๋…ํŠนํ•œ ํŠน์ง•๊ณผ ๊ฐ•๋ ฅํ•œ ์˜ˆ์ธก ์„ฑ๋Šฅ์„ ๊ฐ€์ง„ ์•Œ๊ณ ๋ฆฌ์ฆ˜์œผ๋กœ, ๋จธ์‹ ๋Ÿฌ๋‹์˜ ๊ธฐ์ดˆ๋ฅผ ์ด๋ฃจ๋Š” ์ค‘์š”ํ•œ ๋ชจ๋ธ๋“ค์ž…๋‹ˆ๋‹ค.1. SVM (Support Vector Machine)1.1. ๊ฐœ๋…SVM์€ ์ฃผ์–ด์ง„ ๋ฐ์ดํ„ฐ์—์„œ ๋‘ ํด๋ž˜์Šค๋ฅผ ๊ฐ€์žฅ ์ž˜ ๊ตฌ๋ถ„ํ•˜๋Š” ๊ฒฝ๊ณ„(Decision Boundary)๋ฅผ ์ฐพ๋Š” ๋ฐ ์ดˆ์ ์ด ์žˆ์–ด์š”.์ด ๊ฒฝ๊ณ„๋ฅผ Hyperplane์ด๋ผ๊ณ  ๋ถ€๋ฅด๋ฉฐ, ๋ฐ์ดํ„ฐ๋ฅผ ๋ถ„๋ฆฌํ•˜๋Š” ์„  ๋˜๋Š” ๋ฉด์„ ์˜๋ฏธํ•ฉ๋‹ˆ๋‹ค. SVM์˜ ํ•ต์‹ฌ์€ ์ด Hyperplane๊ณผ ๋ฐ์ดํ„ฐ๋ฅผ ๊ตฌ๋ถ„ํ•˜๋Š” ๋งˆ์ง„์„ ์ตœ๋Œ€ํ•œ์œผ๋กœ ๋„“ํžˆ๋Š” ๊ฒƒ์ž…๋‹ˆ๋‹ค. .. 2024. 12. 9.
[AI/ML] Matrix Factorization(ํ–‰๋ ฌ ๋ถ„ํ•ด)์™€ ๋จธ์‹ ๋Ÿฌ๋‹ ๋จธ์‹ ๋Ÿฌ๋‹ ๊ด€๋ จ ๊ณต๋ถ€๋ฅผ ํ•˜๋‹ค๋ณด๋ฉด ํ–‰๋ ฌ์— ๊ด€ํ•œ ์ด์•ผ๊ธฐ๊ฐ€ ์ฐธ ๋งŽ์ด ๋‚˜์˜ค์ฃ . ์ •๋ง ์ง€๊ธ‹์ง€๊ธ‹ํ•œ๋ฐ ๊ทธ๋ ‡๋‹ค๊ณ  ๋˜ ๋Š˜ ์™„๋ฒฝํžˆ ์ดํ•ดํ•˜์ง€๋Š” ๋ชปํ•˜๋Š” ๋ถ„์•ผ์ด๊ธฐ๋„ ํ•ด์š”...ใ…  ์˜ค๋Š˜์€ ์ƒ๊ฐ๋‚œ ๊น€์— ํ–‰๋ ฌ ๋ถ„ํ•ด์— ๋Œ€ํ•œ ๋‚ด์šฉ์„ ์ •๋ฆฌํ•ด ๋ณด๋ ค ํ•ฉ๋‹ˆ๋‹ค. ํ–‰๋ ฌ ๋ถ„ํ•ด(Matrix Factorization)๋Š” ํ•˜๋‚˜์˜ ํ–‰๋ ฌ์„ ๋” ์ž‘์€ ํ–‰๋ ฌ๋“ค์˜ ๊ณฑ์œผ๋กœ ๋ถ„ํ•ดํ•ด ํ‘œํ˜„ํ•˜๋Š” ๋ฐฉ๋ฒ•์ž…๋‹ˆ๋‹ค. ์ด๋Ÿฌํ•œ ํ–‰๋ ฌ ๋ถ„ํ•ด๋ฅผ ์‚ฌ์šฉํ•˜๋ฉด, ๋ฐ์ดํ„ฐ์˜ ํฌ๊ธฐ๋ฅผ ์ค„์ด๋ฉด์„œ๋„ ์ค‘์š”ํ•œ ์ •๋ณด๋ฅผ ๋ณด์กดํ•  ์ˆ˜ ์žˆ์–ด์š”. ๋ฐ์ดํ„ฐ๋ฅผ ๋‹จ์ˆœํžˆ ์••์ถ•ํ•˜๋Š” ๋ฐ ๊ทธ์น˜์ง€ ์•Š๊ณ , ๊ทธ ์•ˆ์— ์ˆจ๊ฒจ์ง„ ํŒจํ„ด์ด๋‚˜ ๊ด€๊ณ„๋ฅผ ์ฐพ์•„๋‚ด๋Š” ๋ฐ๋„ ์ •๋ง ์œ ์šฉํ•˜๋‹ต๋‹ˆ๋‹ค. ์˜ˆ๋ฅผ ๋“ค์–ด, ์ถ”์ฒœ ์‹œ์Šคํ…œ์—์„œ ์‚ฌ์šฉ์ž์™€ ์•„์ดํ…œ ๊ฐ„์˜ ์„ ํ˜ธ๋„๋ฅผ ๋‚˜ํƒ€๋‚ด๋Š” ๋Œ€๊ทœ๋ชจ ํ–‰๋ ฌ์ด ์žˆ์„ ๋•Œ, ์ด๋ฅผ ๋ถ„ํ•ดํ•˜๋ฉด ๊ฐ ์‚ฌ์šฉ์ž์™€ ์•„์ดํ…œ์˜ ์ž ์žฌ์ ์ธ ํŠน์ง•์„ ๋ฐœ๊ฒฌํ•  ์ˆ˜ ์žˆ์–ด์š”. ์ด๋ ‡๊ฒŒ ๋ฐœ.. 2024. 12. 9.
[AI/ML] ๊ฒฝ์‚ฌ ํ•˜๊ฐ•๋ฒ• (Gradient Descent Algorithms): ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ์ตœ์ ํ™”๋ฅผ ์œ„ํ•œ ์•Œ๊ณ ๋ฆฌ์ฆ˜ ์˜ค๋Š˜์€ ๋”ฅ๋Ÿฌ๋‹์—์„œ ํ•ต์‹ฌ์ ์ธ ์ตœ์ ํ™” ์•Œ๊ณ ๋ฆฌ์ฆ˜์ธ Gradient Descent (๊ฒฝ์‚ฌ ํ•˜๊ฐ•๋ฒ•) ์— ๋Œ€ํ•ด ์•Œ์•„๋ณด๋ ค๊ณ  ํ•ด์š”. ์ด ์•Œ๊ณ ๋ฆฌ์ฆ˜์ด ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์„ ํ•™์Šตํ•˜๊ณ  ์ตœ์ ํ™”ํ•˜๋Š” ๋ฐ ์–ด๋–ป๊ฒŒ ํ™œ์šฉ๋˜๋Š”์ง€ ํ•จ๊ป˜ ์‚ดํŽด๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค. ๊ฒฝ์‚ฌ ํ•˜๊ฐ•๋ฒ•์˜ ๊ฐœ๋…Gradient Descent๋Š” ํ•จ์ˆ˜์˜ ๊ธฐ์šธ๊ธฐ(Gradient)๋ฅผ ์ด์šฉํ•˜์—ฌ ํ•จ์ˆ˜์˜ ์ตœ์†Ÿ๊ฐ’์„ ์ฐพ์•„๊ฐ€๋Š” ์ตœ์ ํ™” ์•Œ๊ณ ๋ฆฌ์ฆ˜์ž…๋‹ˆ๋‹ค. ๋”ฅ๋Ÿฌ๋‹์—์„œ๋Š” ์†์‹ค ํ•จ์ˆ˜(Loss Function)์˜ ๊ฐ’์„ ์ตœ์†Œํ™”ํ•˜๊ธฐ ์œ„ํ•ด ๋งŽ์ด ์‚ฌ์šฉ๋ฉ๋‹ˆ๋‹ค. ๋™์ž‘ ์›๋ฆฌ๊ธฐ๋ณธ ๊ฐœ๋…:๊ฒฝ์‚ฌ ํ•˜๊ฐ•๋ฒ•์€ ์ดˆ๊ธฐ์— ์ž„์˜์˜ ํŒŒ๋ผ๋ฏธํ„ฐ์—์„œ ์‹œ์ž‘ํ•˜์—ฌ, ๊ฐ ๋‹จ๊ณ„์—์„œ ์†์‹ค ํ•จ์ˆ˜์˜ ๊ทธ๋ž˜๋””์–ธํŠธ๋ฅผ ๊ณ„์‚ฐํ•˜๊ณ , ๊ทธ๋ž˜๋””์–ธํŠธ์˜ ๋ฐ˜๋Œ€ ๋ฐฉํ–ฅ์œผ๋กœ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ์กฐ์ •ํ•˜์—ฌ ์ตœ์ ํ™”๋ฅผ ์ˆ˜ํ–‰ํ•ฉ๋‹ˆ๋‹ค.์ฃผ์š” ๋‹จ๊ณ„:์ดˆ๊ธฐํ™”(Initialization): ํŒŒ๋ผ๋ฏธํ„ฐ(๊ฐ€์ค‘์น˜์™€ ํŽธํ–ฅ)๋ฅผ ์ž„์˜์˜ ๊ฐ’.. 2024. 7. 11.
[AI/ML] ๋”ฅ๋Ÿฌ๋‹ ํ•ต์‹ฌ ๊ฐœ๋…: Back Propagation (์˜ค์ฐจ ์—ญ์ „ํŒŒ)์˜ ์ดํ•ด์™€ ์‘์šฉ ์˜ค๋Š˜์€ ๋”ฅ๋Ÿฌ๋‹์—์„œ ํ•ต์‹ฌ์ ์ธ ๊ฐœ๋…์ธ Back Propagation (์˜ค์ฐจ ์—ญ์ „ํŒŒ) ์— ๋Œ€ํ•ด ๊นŠ์ด ์žˆ๋Š” ์„ค๋ช…์„ ํ•ด๋ณด๋ ค๊ณ  ํ•ด์š”. ์ด ๊ฐœ๋…์„ ์ดํ•ดํ•˜๋Š” ๊ฒƒ์€ ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์„ ๊ตฌ์ถ•ํ•˜๊ณ  ์ตœ์ ํ™”ํ•˜๋Š” ๋ฐ ๋งค์šฐ ์ค‘์š”ํ•œ ์š”์†Œ์ž…๋‹ˆ๋‹ค. Back Propagation์ด๋ž€? Back Propagation์€ ๋”ฅ๋Ÿฌ๋‹์—์„œ ์‹ ๊ฒฝ๋ง ๋ชจ๋ธ์„ ํ•™์Šต์‹œํ‚ฌ ๋•Œ ์‚ฌ์šฉ๋˜๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜์ž…๋‹ˆ๋‹ค. ๋ชจ๋ธ์˜ ์ถœ๋ ฅ ๊ฐ’๊ณผ ์‹ค์ œ ๊ฐ’ ์‚ฌ์ด์˜ ์˜ค์ฐจ๋ฅผ ์—ญ๋ฐฉํ–ฅ์œผ๋กœ ์ „ํŒŒํ•˜์—ฌ ๊ฐ ํŒŒ๋ผ๋ฏธํ„ฐ๊ฐ€ ์˜ค์ฐจ์— ์–ผ๋งˆ๋‚˜ ๊ธฐ์—ฌํ–ˆ๋Š”์ง€ ๊ณ„์‚ฐํ•˜๊ณ , ์ด๋ฅผ ๊ธฐ๋ฐ˜์œผ๋กœ ๋ชจ๋ธ์˜ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ์—…๋ฐ์ดํŠธํ•ฉ๋‹ˆ๋‹ค.  ๋™์ž‘ ์›๋ฆฌ 1. ์ˆœ์ „ํŒŒ (Forward Propagation) : ์ž…๋ ฅ ๋ฐ์ดํ„ฐ๋ฅผ ์‹ ๊ฒฝ๋ง์— ์ž…๋ ฅํ•˜๊ณ , ๊ฐ ๋ ˆ์ด์–ด์—์„œ ๊ฐ€์ค‘์น˜์™€ ํ™œ์„ฑํ™” ํ•จ์ˆ˜๋ฅผ ์‚ฌ์šฉํ•˜์—ฌ ์ถœ๋ ฅ์„ ๊ณ„์‚ฐํ•˜๋Š” ๊ณผ์ •์ž…๋‹ˆ๋‹ค. 2. ์˜ค์ฐจ ๊ณ„์‚ฐ (Error Cal.. 2024. 7. 11.
[AI/ML] ๋จธ์‹ ๋Ÿฌ๋‹ : ์ง€๋„ํ•™์Šต, ๋น„์ง€๋„ํ•™์Šต, ๊ฐ•ํ™”ํ•™์Šต ์ดํ•ดํ•˜๊ธฐ ๐ŸŒŸ ๋จธ์‹ ๋Ÿฌ๋‹์˜ ํ•ต์‹ฌ, ์ง€๋„ํ•™์Šต, ๋น„์ง€๋„ํ•™์Šต, ๊ฐ•ํ™”ํ•™์Šต์„ ์ž์„ธํžˆ ์•Œ์•„๋ณด์•„์š”! ๐Ÿค– ์ง€๋„ํ•™์Šต์ง€๋„ํ•™์Šต์€ ์ž…๋ ฅ ๋ฐ์ดํ„ฐ์™€ ๊ทธ์— ๋Œ€์‘ํ•˜๋Š” ์ •๋‹ต ๋ฐ์ดํ„ฐ(๋ผ๋ฒจ)์„ ํ•จ๊ป˜ ์‚ฌ์šฉํ•˜์—ฌ ๋ชจ๋ธ์„ ํ•™์Šต์‹œํ‚ค๋Š” ๋ฐฉ๋ฒ•์ž…๋‹ˆ๋‹ค. ์ด ๋ฐฉ๋ฒ•์€ ๋ฐ์ดํ„ฐ์˜ ๊ฐ ์ƒ˜ํ”Œ์ด ์ž…๋ ฅ๊ณผ ์ •๋‹ต์œผ๋กœ ๊ตฌ์„ฑ๋˜์–ด ์žˆ์–ด์•ผ ํ•ฉ๋‹ˆ๋‹ค. ์˜ˆ๋ฅผ ๋“ค์–ด, ์ด๋ฉ”์ผ์ด ์ŠคํŒธ์ธ์ง€ ์•„๋‹Œ์ง€๋ฅผ ๊ตฌ๋ถ„ํ•˜๋Š” ๋ถ„๋ฅ˜ ๋ฌธ์ œ๋‚˜ ์ด๋ฏธ์ง€์—์„œ ๊ฐ์ฒด๋ฅผ ์ธ์‹ํ•˜๋Š” ๋ฌธ์ œ ๋“ฑ์—์„œ ์‚ฌ์šฉ๋  ์ˆ˜ ์žˆ์–ด์š”.์ฃผ์š” ์˜ˆ์‹œ:๋ถ„๋ฅ˜(Classification): ์˜ˆ์ธกํ•˜๋ ค๋Š” ๊ฐ’์ด ๋ฒ”์ฃผํ˜• ๋ฐ์ดํ„ฐ์ธ ๊ฒฝ์šฐ ์‚ฌ์šฉ๋ฉ๋‹ˆ๋‹ค. ์˜ˆ๋ฅผ ๋“ค์–ด, ์ด๋ฉ”์ผ์ด ์ŠคํŒธ์ธ์ง€ ์•„๋‹Œ์ง€ ๋ถ„๋ฅ˜ํ•˜๊ฑฐ๋‚˜ ๊ณ ๊ฐ์ด ํŠน์ • ์ œํ’ˆ์„ ๊ตฌ๋งคํ• ์ง€ ์˜ˆ์ธกํ•˜๋Š” ๋ฌธ์ œ ๋“ฑ์ด ์žˆ์–ด์š”.ํšŒ๊ท€(Regression): ์˜ˆ์ธกํ•˜๋ ค๋Š” ๊ฐ’์ด ์—ฐ์†์ ์ธ ์ˆซ์ž์ธ ๊ฒฝ์šฐ ์‚ฌ์šฉ๋ฉ๋‹ˆ๋‹ค. ์˜ˆ๋ฅผ ๋“ค์–ด, ์ฃผ์‹ ๊ฐ€๊ฒฉ ์˜ˆ์ธก์ด๋‚˜ ์ฃผํƒ ๊ฐ€๊ฒฉ ์˜ˆ์ธก .. 2024. 7. 11.
[AI/ML] ๋จธ์‹ ๋Ÿฌ๋‹์˜ ์ •์˜์™€ ๊ธฐ๋ณธ ๊ฐœ๋… ๋จธ์‹ ๋Ÿฌ๋‹์ด๋ž€ ๋ฌด์—‡์ผ๊นŒ์š”? ๐Ÿค”๋จธ์‹ ๋Ÿฌ๋‹์€ ์ธ๊ณต์ง€๋Šฅ์˜ ํ•œ ๋ถ„์•ผ๋กœ, ์ปดํ“จํ„ฐ๊ฐ€ ๋ฐ์ดํ„ฐ๋ฅผ ํ•™์Šตํ•˜๊ณ  ํŒจํ„ด์„ ์ฐพ์•„ ์ž‘์—…์„ ์ˆ˜ํ–‰ํ•  ์ˆ˜ ์žˆ๊ฒŒ ๋งŒ๋“œ๋Š” ๊ธฐ์ˆ ์ž…๋‹ˆ๋‹ค. ์—ฌ๊ธฐ์„œ 'ํ•™์Šต'์ด๋ผ ํ•จ์€ ๋ฐ์ดํ„ฐ๋กœ๋ถ€ํ„ฐ ๊ทœ์น™์ด๋‚˜ ํŒจํ„ด์„ ์ถ”์ถœํ•˜์—ฌ ๋ฌธ์ œ๋ฅผ ํ•ด๊ฒฐํ•˜๋Š” ๊ณผ์ •์„ ๋งํ•ด์š”. ๐Ÿค– ๐Ÿ“š ๊ธฐ๋ณธ ๊ฐœ๋…์„ ์‚ดํŽด๋ณด๋ฉด, ๋จธ์‹ ๋Ÿฌ๋‹์€ ํฌ๊ฒŒ ์ง€๋„ํ•™์Šต, ๋น„์ง€๋„ํ•™์Šต, ๊ฐ•ํ™”ํ•™์Šต์œผ๋กœ ๋‚˜๋‰ฉ๋‹ˆ๋‹ค. - ์ง€๋„ํ•™์Šต: ์ž…๋ ฅ ๋ฐ์ดํ„ฐ์™€ ๊ทธ์— ์ƒ์‘ํ•˜๋Š” ์ •๋‹ต(๋ผ๋ฒจ)์„ ์ด์šฉํ•ด ๋ชจ๋ธ์„ ํ•™์Šต์‹œํ‚ค๋Š” ๋ฐฉ์‹์ž…๋‹ˆ๋‹ค. ์˜ˆ๋ฅผ ๋“ค์–ด, ์ด๋ฉ”์ผ์ด ์ŠคํŒธ์ธ์ง€ ์•„๋‹Œ์ง€๋ฅผ ๊ตฌ๋ถ„ํ•˜๋Š” ๋ถ„๋ฅ˜ ๋ฌธ์ œ๋‚˜ ์†๊ธ€์”จ๋ฅผ ์ธ์‹ํ•˜๋Š” ๋ฌธ์ œ ๋“ฑ์ด ์—ฌ๊ธฐ์— ์†ํ•ด์š”. - ๋น„์ง€๋„ํ•™์Šต: ์ •๋‹ต ๋ฐ์ดํ„ฐ ์—†์ด ๋ฐ์ดํ„ฐ์˜ ํŒจํ„ด์ด๋‚˜ ๊ตฌ์กฐ๋ฅผ ๋ฐœ๊ฒฌํ•˜๋ ค๋Š” ํ•™์Šต ๋ฐฉ์‹์ž…๋‹ˆ๋‹ค. ๋ฐ์ดํ„ฐ๋ฅผ ์Šค์Šค๋กœ ๋ถ„๋ฅ˜ํ•˜๊ฑฐ๋‚˜ ๊ตฐ์ง‘ํ™”ํ•˜๊ฑฐ๋‚˜ ์ฐจ์›์„ ์ถ•์†Œํ•˜๋Š” ๋ฐฉ๋ฒ• ๋“ฑ์ด ์žˆ์–ด์š”. ์ด๋Ÿฐ ๊ธฐ์ˆ ์€ .. 2024. 7. 11.
728x90