๐ฅ Coursera์ "Improving Deep Neural Networks: Hyperparameter Tuning, Regularization and
Optimization" ๊ฐ์ข์ ๋ด์ฉ์ ๋ฐฐ์ฐ๋ฉด์ ๊ฐ์ธ์ ์ผ๋ก ์ ๋ฆฌํ ๋ด์ฉ์
๋๋ค.
Softmax๋ ์ฃผ์ด์ง ๋ฒกํฐ๋ฅผ ๋ค๋ฅธ ๋ฒกํฐ๋ก ๋ณํํ๋ ํจ์๋ก, ์ผ๋ฐ์ ์ผ๋ก ๋ค์ค ํด๋์ค ๋ถ๋ฅ ๋ฌธ์ ์์ ์ถ๋ ฅ ํ๋ฅ ํํ๋ก ํํํ๊ธฐ ์ํด ์ฌ์ฉ๋๋ค.
์ ๋ ฅ ๋ฒกํฐ์ ๊ฐ ์์๋ฅผ 0 ~ 1 ์ฌ์ด์ ๊ฐ์ผ๋ก ๋ณํํ๋ฉฐ, ๋ชจ๋ ์์์ ํฉ์ด 1์ด ๋๋๋ก ์ ๊ทํ ํ๋ค.
๊ณ์ฐ ๋ฐฉ๋ฒ
- ์ง์ ํจ์๋ฅผ ์ฌ์ฉํ์ฌ ์ ๋ ฅ ๊ฐ์ ํ๋ฅ ๊ฐ์ผ๋ก ๋ณํ ํ๋ค.
- ์ ๋ ฅ ๋ฒกํฐ x์ ๋ํด ์ถ๋ ฅ y๋ ๋ค์ ๊ณผ๊ฐ์ด ๊ณ์ฐ
(yi๋ ์ถ๋ ฅ ๋ฒกํฐ์ i๋ฒ์งธ ์์, xi๋ ์ ๋ ฅ ๋ฒกํฐ์ i๋ฒ์งธ ์์, N์ ๋ฒกํฐ์ ์ฐจ์ ์)
์์
Input vector -> x = [2,4,1,3]
1. ๊ฐ ์์๋ฅผ ์ง์ ํจ์๋ก ๋ณํ
- e2 ≈ 7.3891
- e4 ≈ 54.5982
- e1 ≈ 2.7183
- e3 ≈ 20.0855
2. ๋ณํ ๋ ๊ฐ๋ค์ ์ดํฉ ๊ณ์ฐ
- total ≈ 8.3891 + 54.5982 + 2.7183 + 20.0855 ≈ 84.7911
3. ๊ฐ ๊ฐ์ ํฉ๊ณ๋ก ๋๋์ด Softmax ๊ฐ์ ๊ณ์ฐ
- y1 = 7.3891 / 84.7911 ≈ 0.087
- y2 = 54.5982 / 84.7911 ≈ 0.644
- y3 = 2.7183 / 84.7911 ≈ 0.032
- y4 = 20.0855 / 84.7911 ≈ 0.237
- y1 + y2 + y3 + y4 = 1
Logstic Regression์์ ์ฌ์ฉ์ ์ด์ง ๋ถ๋ฅ์ด๋ฏ๋ก ์ถ๋ ฅ์ด 2๊ฐ๋ก ๊ณ ์ ๋์ด ์ฌ์ฉ๋๋ค.
Deep Learning์์๋ ์ถ๋ ฅ ๋จ์๊ฐ ํด๋์ค์ ๊ฐ์์ ๋์ผํ๋ค.(Logstic Regression์ ์ผ๋ฐํ ํ ๊ฒ์ด๋ผ ์๊ฐ ํ ์ ์๋ค.)
Softmax ํจ์๋ Cross-entropy-loss ํจ์(์ค์ ๊ฐ๊ณผ ์์ธก๋ ํ๋ฅ ์ ์ฐจ์ด๋ฅผ ๊ณ์ฐํ์ฌ ๋ชจ๋ธ์ ํ์ตํ๋ ๋ฐ ์ฌ์ฉ)์ ์ฐ๊ฒฐ๋์ด ์ฌ์ฉ๋๋ค.
'AI > Coursera' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[Coursera] 7. Hyperparameter tuning, Batch Normalization (0) | 2024.01.01 |
---|---|
[Coursera] 6. Opitmization (0) | 2023.12.31 |
[Coursera] 5. Optimization Problem (0) | 2023.12.28 |
[Coursera] 4. Practical Aspects of Deep Learning (0) | 2023.12.27 |
[Coursera] 3. Gradient Descent (0) | 2023.12.27 |