- Today
- Total
๋ชฉ๋กtanh (2)
DATA101
๐ ๋ชฉ์ฐจ1. ๊ธฐ์ธ๊ธฐ ์์ค์ ์๋ฏธ2. ๊ธฐ์ธ๊ธฐ ์์ค์ ์์ธ3. ๊ธฐ์ธ๊ธฐ ์์ค์ ํด๊ฒฐ๋ฐฉ๋ฒ1. ๊ธฐ์ธ๊ธฐ ์์ค์ ์๋ฏธ๋ฅ๋ฌ๋ ๋ถ์ผ์์ Layer๋ฅผ ๋ง์ด ์์์๋ก ๋ฐ์ดํฐ ํํ๋ ฅ์ด ์ฆ๊ฐํ๊ธฐ ๋๋ฌธ์ ํ์ต์ด ์ ๋ ๊ฒ ๊ฐ์ง๋ง, ์ค์ ๋ก๋ Layer๊ฐ ๋ง์์ง์๋ก ํ์ต์ด ์ ๋์ง ์์ต๋๋ค. ๋ฐ๋ก ๊ธฐ์ธ๊ธฐ ์์ค(Vanishing Gradient) ํ์๋๋ฌธ์ ๋๋ค. ๊ธฐ์ธ๊ธฐ ์์ค์ด๋ ์ญ์ ํ(Backpropagation) ๊ณผ์ ์์ ์ถ๋ ฅ์ธต์์ ๋ฉ์ด์ง์๋ก Gradient ๊ฐ์ด ๋งค์ฐ ์์์ง๋ ํ์์ ๋งํฉ๋๋ค(๊ทธ๋ฆผ 1 ์ฐธ๊ณ ). ๊ทธ๋ ๋ค๋ฉด ์ ์ด๋ฐ ๊ธฐ์ธ๊ธฐ ์์ค ๋ฌธ์ ๊ฐ ๋ฐ์ํ ๊น์? ์ด์ด์ง๋ ์น์ ์์ ์์ธํ ์์๋ด ๋๋ค. 2. ๊ธฐ์ธ๊ธฐ ์์ค์ ์์ธ๊ธฐ์ธ๊ธฐ ์์ค์ ๋ฐ์ ์์ธ์ ํ์ฑํ ํจ์(Activation Function)์ ๊ธฐ์ธ๊ธฐ์ ๊ด๋ จ์ด ๊น์ต๋๋ค..
๐ ๋ชฉ์ฐจ 1. ํ์ฑํ ํจ์์ ๊ฐ๋ 2. ํ์ฑํ ํจ์์ ์ข ๋ฅ 2.1. Sign ํจ์ 2.2. Sigmoid ํจ์ 2.3. Tanh ํจ์ 2.4. Softmax ํจ์ 2.5. ReLU ํจ์ 2.6. Leaky ReLU ํจ์ 1. ํ์ฑํ ํจ์์ ๊ฐ๋ ํ์ฑํ ํจ์(Activation Function)๋ ํผ์ ํธ๋ก (Perceptron)์ ์ถ๋ ฅ๊ฐ์ ๊ฒฐ์ ํ๋ ๋น์ ํ(non-linear) ํจ์์ ๋๋ค. ์ฆ, ํ์ฑํ ํจ์๋ ํผ์ ํธ๋ก ์์ ์ ๋ ฅ๊ฐ์ ์ดํฉ์ ์ถ๋ ฅํ ์ง ๋ง์ง ๊ฒฐ์ ํ๊ณ , ์ถ๋ ฅํ๋ค๋ฉด ์ด๋ค ๊ฐ์ผ๋ก ๋ณํํ์ฌ ์ถ๋ ฅํ ์ง ๊ฒฐ์ ํ๋ ํจ์์ ๋๋ค. ํผ์ ํธ๋ก ์ ๋ํ ์์ธํ ๋ด์ฉ์ ์ด๊ณณ์ ์ฐธ๊ณ ํด ์ฃผ์ธ์. ์๋ ๊ทธ๋ฆผ 1์ ๋ ธ๋์์ผ๋ก ์์น ํ ๋ถ๋ถ์ด ํผ์ ํธ๋ก ์ ํ์ฑํ ํจ์ ๋ถ๋ถ์ ๋๋ค. 2. ํ์ฑํ ํจ์์ ์ข ๋ฅ 2.1. Sign ํจ์ ์์ ํผ์ ..