- Today
- Total
๋ชฉ๋กMomentum (2)
DATA101
1. ๊ฐ๋ Adaptive Moment Estimation(Adam)์ ๋ฅ๋ฌ๋ ์ต์ ํ ๊ธฐ๋ฒ ์ค ํ๋๋ก์จ Momentum๊ณผ RMSProp์ ์ฅ์ ์ ๊ฒฐํฉํ ์๊ณ ๋ฆฌ์ฆ์ ๋๋ค. ์ฆ, ํ์ต์ ๋ฐฉํฅ๊ณผ ํฌ๊ธฐ(=Learning rate)๋ฅผ ๋ชจ๋ ๊ฐ์ ํ ๊ธฐ๋ฒ์ผ๋ก ๋ฅ๋ฌ๋์์ ๊ฐ์ฅ ๋ง์ด ์ฌ์ฉ๋์ด "์ค๋" ์ต์ ํ ๊ธฐ๋ฒ์ผ๋ก ์๋ ค์ ธ ์์ต๋๋ค. ์ต๊ทผ์๋ RAdam, AdamW๊ณผ ๊ฐ์ด ๋์ฑ ์ฐ์ํ ์ฑ๋ฅ์ ๋ณด์ด๋ ์ต์ ํ ๊ธฐ๋ฒ์ด ์ ์๋์์ง๋ง, ๋ณธ ํฌ์คํ ์์๋ ๋ฅ๋ฌ๋ ๋ถ์ผ ์ ๋ฐ์ ๊ณต๋ถํ๋ ๋ง์๊ฐ์ง์ผ๋ก Adam์ ๋ํด ์์๋ด ๋๋ค.2. ์์์์๊ณผ ํจ๊ป Adam์ ๋ํด ์์ธํ ์์๋ณด๊ฒ ์ต๋๋ค. $$ m_{t} = \beta_{1} m_{t-1} + (1 - \beta_{1}) \nabla f(x_{t-1}) $$$$ g_{t} = \beta_{..
๋ณธ ํฌ์คํ ์์๋ ๋ฅ๋ฌ๋ ์ต์ ํ(optimizer) ๊ธฐ๋ฒ ์ค ํ๋์ธ Momentum์ ๊ฐ๋ ์ ๋ํด ์์๋ด ๋๋ค. ๋จผ์ , Momentum ๊ธฐ๋ฒ์ด ์ ์๋ ๋ฐฐ๊ฒฝ์ธ ๊ฒฝ์ฌ ํ๊ฐ๋ฒ(Gradient Descent)์ ํ๊ณ์ ์ ๋ํด ๋ค๋ฃจ๊ณ ์์๋ณด๋๋ก ํ๊ฒ ์ต๋๋ค.๐ ๋ชฉ์ฐจ1. ๊ฒฝ์ฌ ํ๊ฐ๋ฒ์ ํ๊ณ 1.1. Local Minimum ๋ฌธ์ 1.2. Saddle Point ๋ฌธ์ 2. Momentum 2.1. ๊ฐ๋ 2.2. ์์1. ๊ฒฝ์ฌ ํ๊ฐ๋ฒ์ ํ๊ณ๊ฒฝ์ฌ ํ๊ฐ๋ฒ(Gradient Descent)์ ํฌ๊ฒ 2๊ฐ์ง ํ๊ณ์ ์ด ์์ต๋๋ค. ์ฒซ์งธ, Local Minimum์ ๋น ์ง๊ธฐ ์ฝ๋ค๋ ์ . ๋์งธ, ์์ฅ์ (Saddle point)๋ฅผ ๋ฒ์ด๋์ง ๋ชปํ๋ค๋ ์ . ๊ฐ๊ฐ์ ๋ํด ์์๋ด ๋๋ค.1.1. Local Minimum..