- Today
- Total
๋ชฉ๋กAI (21)
DATA101
๐ ์ง๋ 2์, ๋ฐ์ดํฐ์๋์ ํ์ AI/๋น ๋ฐ์ดํฐ๋ถ์ ์๋ฃจ์ ์ด No.1 ํ๋ฆฌ๋์ ๋ง์ผ ํฌ๋ชฝ์์ ์์ ํ ์์ 2% ์ ๋ฌธ๊ฐ ์๋น์ค์ธ prime์ ์ ์ ๋์์ต๋๋ค. ๐ prime์ 100๋ง ๊ฑด ์ด์์ ํฌ๋ชฝ ๊ฑฐ๋ Data๋ฅผ ๋ถ์ํ๊ณ ์๋น์ค ๋ง์กฑ๋ 99% ์ด์์ธ ์ ๋ฌธ๊ฐ ์ธํฐ๋ทฐ ๋ฐ ๋ ํผ๋ฐ์ค ์ฒดํฌ๋ฅผ ํตํด ์์ ๋ 300์ฌ ๋ช ์ ์์ ์ ๋ฌธ๊ฐ์๊ฒ๋ง ์ฃผ์ด์ง๋ ์๋น์ค์ ๋๋ค. ๐ค ์ฃผ๋ก Prime ์ ๋ฌธ๊ฐ๋ ๋๊ธฐ์ ๋ถํฐ ์คํํธ์ , ์ ๋ถ๊ธฐ๊ด๊น์ง B2B ๊ณ ๊ฐ์ ์ฃผ ํ๊ฒ์ผ๋ก ๊ฑฐ๋ํ๋ ํ์ง๋ณด์ฅ ์ ์ฒด๋ค๋ก ๊ตฌ์ฑ๋์ด ์์ต๋๋ค. ๐จ๐ป ํ์ฌ ์ ํฌ ๋ฐ์ดํฐ์๋์ ํ์ AI๋ฅผ ํ์ฉํ ๋น ๋ฐ์ดํฐ๋ถ์ ์๋ฃจ์ ๊ตฌ์ถ๋ถํฐ ๋ค์ํ ์ฐ์ ๊ตฐ์ ๋น ๋ฐ์ดํฐ ๋ถ์ ๊ณผ์ ์ํ์ ์ง์ํด ๋๋ฆฌ๊ณ ์์ต๋๋ค. ๐ AI ๊ธฐ์ ์ ํ์ฉํ SW ์ธํ๋ผ ๊ตฌ์ถ์ด๋ ๋น ๋ฐ์ดํฐ ๋ถ์..
๐จ๐ป ๋ค์ด๊ฐ๋ฉฐ ๋ณธ ํฌ์คํ ์์๋ ๋ฅ๋ฌ๋ ๋ถ์ผ์์ ํ์ดํผํ๋ผ๋ฏธํฐ ์ต์ ํ ๋ฐฉ๋ฒ 3๊ฐ์ง์ธ Grid Search, Random Search, Bayesian Optimization์ ๋ํด ์์๋ด ๋๋ค. ๐ ๋ชฉ์ฐจ 1. Grid Search 2. Random Search 3. Bayesian Optimization 1. Grid Search ๊ทธ๋ฆฌ๋ ์์น(Grid Search)๋ ํ์ดํผํ๋ผ๋ฏธํฐ๋ฅผ ์ผ์ ํ ๊ฐ๊ฒฉ์ผ๋ก ๋ณ๊ฒฝํ๋ฉฐ ์ต์ ์ ํ๋ผ๋ฏธํฐ๋ฅผ ์ฐพ์๊ฐ๋ ๊ธฐ๋ฒ์ ๋๋ค. ์๋์ ๊ทธ๋ฆผ 1์ฒ๋ผ ๊ฐ๋ก์ถ์ด ํ์ดํผํ๋ผ๋ฏธํฐ์ด๊ณ ์ธ๋ก์ถ์ด ๋ชฉํํจ์์ผ ๋, ๋ชฉํํจ์ ๊ฐ์ด ์ต๋๊ฐ ๋๋ ํ์ดํผํ๋ผ๋ฏธํฐ๋ฅผ ์ฐพ๋ ๋ฌธ์ ๋ฅผ ํ์ด์ผ ํ๋ค๊ณ ๊ฐ์ ํด ๋ณด๊ฒ ์ต๋๋ค. ๊ทธ๋ฆฌ๋ ์์น๋ ํน์ ๋ฒ์ ๋ด์์ ํ์ดํผํ๋ผ๋ฏธํฐ๋ฅผ ์ผ์ ๊ฐ๋งํผ ์ผ์ผ์ด ๋ณ๊ฒฝํ๋ฉฐ ์ถ๋ ฅ๊ฐ์ ๋น๊ตํ๋ ๋ฐฉ์์ผ๋ก..
๐ ๋ชฉ์ฐจ 1. ๊ฒฝ์ฌ ํ๊ฐ๋ฒ ๊ฐ๋ 2. ๊ฒฝ์ฌ ํ๊ฐ๋ฒ ์ข ๋ฅ 2.1. ๋ฐฐ์น ๊ฒฝ์ฌ ํ๊ฐ๋ฒ 2.2. ํ๋ฅ ์ ๊ฒฝ์ฌ ํ๊ฐ๋ฒ 2.3. ๋ฏธ๋ ๋ฐฐ์น ๊ฒฝ์ฌ ํ๊ฐ๋ฒ 1. ๊ฒฝ์ฌ ํ๊ฐ๋ฒ ๊ฐ๋ ๊ฒฝ์ฌ ํ๊ฐ๋ฒ(Gradient Descent)์ด๋ ๋ฅ๋ฌ๋ ์๊ณ ๋ฆฌ์ฆ ํ์ต ์ ์ฌ์ฉ๋๋ ์ต์ ํ ๋ฐฉ๋ฒ(Optimizer) ์ค ํ๋์ ๋๋ค. ๋ฅ๋ฌ๋ ์๊ณ ๋ฆฌ์ฆ ํ์ต ์ ๋ชฉํ๋ ์์ธก๊ฐ๊ณผ ์ ๋ต๊ฐ ๊ฐ์ ์ฐจ์ด์ธ ์์ค ํจ์์ ํฌ๊ธฐ๋ฅผ ์ต์ํ์ํค๋ ํ๋ผ๋ฏธํฐ๋ฅผ ์ฐพ๋ ๊ฒ์ ๋๋ค. ํ์ต ๋ฐ์ดํฐ ์ ๋ ฅ์ ๋ณ๊ฒฝํ ์ ์๊ธฐ ๋๋ฌธ์, ์์ค ํจ์ ๊ฐ์ ๋ณํ์ ๋ฐ๋ผ ๊ฐ์ค์น(weight) ํน์ ํธํฅ(bias)์ ์ ๋ฐ์ดํธํด์ผ ํฉ๋๋ค. ๊ทธ๋ผ ์ด๋ป๊ฒ ์ต์ ์ ๊ฐ์ค์น๋ ํธํฅ์ ์ฐพ์ ์ ์์๊น์? ์ต์ ์ ๊ฐ์ค์น๋ฅผ ์ฐพ๋ ๊ณผ์ ์ ์๊ฐํฉ๋๋ค. ์ต์ ์ ํธํฅ์ ์ฐพ๋ ๊ณผ์ ์ญ์ ์ ์ฐจ๋ ๋์ผํฉ๋๋ค. ์๋์ ๊ทธ..
๐ ๋ชฉ์ฐจ 1. Batch Size 2. Iteration 3. Epoch 1. Batch Size Batch ํฌ๊ธฐ๋ ๋ชจ๋ธ ํ์ต ์ค parameter๋ฅผ ์ ๋ฐ์ดํธํ ๋ ์ฌ์ฉํ ๋ฐ์ดํฐ ๊ฐ์๋ฅผ ์๋ฏธํฉ๋๋ค. ์ฌ๋์ด ๋ฌธ์ ํ์ด๋ฅผ ํตํด ํ์ตํด ๋๊ฐ๋ ๊ณผ์ ์ ์๋ก ๋ค์ด๋ณด๊ฒ ์ต๋๋ค. Batch ํฌ๊ธฐ๋ ๋ช ๊ฐ์ ๋ฌธ์ ๋ฅผ ํ ๋ฒ์ ์ญ ํ๊ณ ์ฑ์ ํ ์ง๋ฅผ ๊ฒฐ์ ํ๋ ๊ฒ๊ณผ ๊ฐ์ต๋๋ค. ์๋ฅผ ๋ค์ด, ์ด 100๊ฐ์ ๋ฌธ์ ๊ฐ ์์ ๋, 20๊ฐ์ฉ ํ๊ณ ์ฑ์ ํ๋ค๋ฉด Batch ํฌ๊ธฐ๋ 20์ ๋๋ค. ์ฌ๋์ ๋ฌธ์ ๋ฅผ ํ๊ณ ์ฑ์ ์ ํ๋ฉด์ ๋ฌธ์ ๋ฅผ ํ๋ฆฐ ์ด์ ๋ ๋ง์ถ ์๋ฆฌ๋ฅผ ํ์ตํ์ฃ . ๋ฅ๋ฌ๋ ๋ชจ๋ธ ์ญ์ ๋ง์ฐฌ๊ฐ์ง์ ๋๋ค. Batch ํฌ๊ธฐ๋งํผ ๋ฐ์ดํฐ๋ฅผ ํ์ฉํด ๋ชจ๋ธ์ด ์์ธกํ ๊ฐ๊ณผ ์ค์ ์ ๋ต ๊ฐ์ ์ค์ฐจ(conf. ์์คํจ์)๋ฅผ ๊ณ์ฐํ์ฌ Optimizer๊ฐ parameter๋ฅผ..
1. ๊ฐ๋ Adaptive Moment Estimation(Adam)์ ๋ฅ๋ฌ๋ ์ต์ ํ ๊ธฐ๋ฒ ์ค ํ๋๋ก์จ Momentum๊ณผ RMSProp์ ์ฅ์ ์ ๊ฒฐํฉํ ์๊ณ ๋ฆฌ์ฆ์ ๋๋ค. ์ฆ, ํ์ต์ ๋ฐฉํฅ๊ณผ ํฌ๊ธฐ(=Learning rate)๋ฅผ ๋ชจ๋ ๊ฐ์ ํ ๊ธฐ๋ฒ์ผ๋ก ๋ฅ๋ฌ๋์์ ๊ฐ์ฅ ๋ง์ด ์ฌ์ฉ๋์ด "์ค๋" ์ต์ ํ ๊ธฐ๋ฒ์ผ๋ก ์๋ ค์ ธ ์์ต๋๋ค. ์ต๊ทผ์๋ RAdam, AdamW๊ณผ ๊ฐ์ด ๋์ฑ ์ฐ์ํ ์ฑ๋ฅ์ ๋ณด์ด๋ ์ต์ ํ ๊ธฐ๋ฒ์ด ์ ์๋์์ง๋ง, ๋ณธ ํฌ์คํ ์์๋ ๋ฅ๋ฌ๋ ๋ถ์ผ ์ ๋ฐ์ ๊ณต๋ถํ๋ ๋ง์๊ฐ์ง์ผ๋ก Adam์ ๋ํด ์์๋ด ๋๋ค.2. ์์์์๊ณผ ํจ๊ป Adam์ ๋ํด ์์ธํ ์์๋ณด๊ฒ ์ต๋๋ค. $$ m_{t} = \beta_{1} m_{t-1} + (1 - \beta_{1}) \nabla f(x_{t-1}) $$$$ g_{t} = \beta_{..
1. ๊ฐ๋ RMSProp๋ ๋ฅ๋ฌ๋ ์ต์ ํ ๊ธฐ๋ฒ ์ค ํ๋๋ก์จ Root Mean Sqaure Propagation์ ์ฝ์๋ก, ์์ ์์คํ๋กญ(R.M.S.Prop)์ด๋ผ๊ณ ์ฝ์ต๋๋ค.โ๋ฑ์ฅ๋ฐฐ๊ฒฝ์ต์ ํ ๊ธฐ๋ฒ ์ค ํ๋์ธ AdaGrad๋ ํ์ต์ด ์งํ๋ ๋ ํ์ต๋ฅ (Learning rate)์ด ๊พธ์คํ ๊ฐ์ํ๋ค ๋์ค์๋ \(0\)์ผ๋ก ์๋ ดํ์ฌ ํ์ต์ด ๋ ์ด์ ์งํ๋์ง ์๋๋ค๋ ํ๊ณ๊ฐ ์์ต๋๋ค. RMSProp์ ์ด๋ฌํ ํ๊ณ์ ์ ๋ณด์ํ ์ต์ ํ ๊ธฐ๋ฒ์ผ๋ก์จ ์ ํ๋ฆฌ ํํผ ๊ต์๊ฐ Coursea ๊ฐ์ ์ค์ ๋ฐํํ ์๊ณ ๋ฆฌ์ฆ์ ๋๋ค.๐ ์๋ฆฌRMSProp์ AdaGrad์ ๋ง์ฐฌ๊ฐ์ง๋ก ๋ณ์(feature)๋ณ๋ก ํ์ต๋ฅ ์ ์กฐ์ ํ๋ ๊ธฐ์ธ๊ธฐ ์ ๋ฐ์ดํธ ๋ฐฉ์์์ ์ฐจ์ด๊ฐ ์์ต๋๋ค. ์ด์ time step์์์ ๊ธฐ์ธ๊ธฐ๋ฅผ ๋จ์ํ ๊ฐ์ ๋น์จ๋ก ๋์ ํ์ง ์๊ณ ์ง์์ด๋..
๐ ๋ชฉ์ฐจ 1. ๊ฐ๋ 2. ์ฅ์ 3. ๋จ์ 1. ๊ฐ๋ AdaGrad๋ ๋ฅ๋ฌ๋ ์ต์ ํ ๊ธฐ๋ฒ ์ค ํ๋๋ก์จ Adaptive Gradient์ ์ฝ์์ด๊ณ , ์ ์์ ๊ธฐ์ธ๊ธฐ๋ผ๊ณ ๋ถ๋ฆ ๋๋ค. Feature๋ง๋ค ์ค์๋, ํฌ๊ธฐ ๋ฑ์ด ์ ๊ฐ๊ฐ์ด๊ธฐ ๋๋ฌธ์ ๋ชจ๋ Feature๋ง๋ค ๋์ผํ ํ์ต๋ฅ ์ ์ ์ฉํ๋ ๊ฒ์ ๋นํจ์จ์ ์ ๋๋ค. ์ด๋ฌํ ๊ด์ ์์ AdaGrad ๊ธฐ๋ฒ์ด ์ ์๋์์ต๋๋ค. AdaGrad๋ Feature๋ณ๋ก ํ์ต๋ฅ (Learning rate)์ Adaptiveํ๊ฒ, ์ฆ ๋ค๋ฅด๊ฒ ์กฐ์ ํ๋ ๊ฒ์ด ํน์ง์ ๋๋ค. AdaGrad๋ฅผ ์์์ผ๋ก ๋ํ๋ด๋ฉด ์๋์ ๊ฐ์ต๋๋ค. $$ g_{t} = g_{t-1} + (\nabla f(x_{t-1}))^{2} $$ $$ x_{t} = x_{t-1} - \frac{\eta}{\sqrt{g_{t} + \epsi..
๋ณธ ํฌ์คํ ์์๋ ๋ฅ๋ฌ๋ ์ต์ ํ(optimizer) ๊ธฐ๋ฒ ์ค ํ๋์ธ Momentum์ ๊ฐ๋ ์ ๋ํด ์์๋ด ๋๋ค. ๋จผ์ , Momentum ๊ธฐ๋ฒ์ด ์ ์๋ ๋ฐฐ๊ฒฝ์ธ ๊ฒฝ์ฌ ํ๊ฐ๋ฒ(Gradient Descent)์ ํ๊ณ์ ์ ๋ํด ๋ค๋ฃจ๊ณ ์์๋ณด๋๋ก ํ๊ฒ ์ต๋๋ค.๐ ๋ชฉ์ฐจ1. ๊ฒฝ์ฌ ํ๊ฐ๋ฒ์ ํ๊ณ 1.1. Local Minimum ๋ฌธ์ 1.2. Saddle Point ๋ฌธ์ 2. Momentum 2.1. ๊ฐ๋ 2.2. ์์1. ๊ฒฝ์ฌ ํ๊ฐ๋ฒ์ ํ๊ณ๊ฒฝ์ฌ ํ๊ฐ๋ฒ(Gradient Descent)์ ํฌ๊ฒ 2๊ฐ์ง ํ๊ณ์ ์ด ์์ต๋๋ค. ์ฒซ์งธ, Local Minimum์ ๋น ์ง๊ธฐ ์ฝ๋ค๋ ์ . ๋์งธ, ์์ฅ์ (Saddle point)๋ฅผ ๋ฒ์ด๋์ง ๋ชปํ๋ค๋ ์ . ๊ฐ๊ฐ์ ๋ํด ์์๋ด ๋๋ค.1.1. Local Minimum..
