๐ฅ Coursera์ "Neural Networks and Deep Learning" ๊ฐ์ข์ ๋ด์ฉ์ ๋ฐฐ์ฐ๋ฉด์ ๊ฐ์ธ์ ์ผ๋ก ์ ๋ฆฌํ ๋ด์ฉ์
๋๋ค.
Logistic Regression ์ด๋?
์ด๋ค ๋ฐ์ดํฐ๊ฐ ๋ฒ์ฃผ์ ์ํ ํ๋ฅ ์ 0~1 ์ฌ์ด์ ๊ฐ์ผ๋ก ์์ธกํ๊ณ ๊ทธ ํ๋ฅ ์ ๋ฐ๋ผ ๊ฐ๋ฅ์ฑ ๋์ ๋ฒ์ฃผ์ ์ํ๋ ๊ฒ์ผ๋ก ๋ถ๋ฅํ๋ ์ง๋ํ์ต ์๊ณ ๋ฆฌ์ฆ์ด๋ค.
Logistic Regression ๊ณ์ฐ
Logistic Regression์ ๊ฐ ์์ฑ์ ๊ฐ์๋ค๊ฐ ๊ณ์(coefficient)์ ๊ฐ ๊ณฑํ๊ณ ์ ํธ(intercept)์ ๋ํด์ ์์ธก ๊ฐ์ ๊ตฌํ๊ณ ์ฌ๊ธฐ์ Log-odds๋ผ๋ ๊ฒ์ ๊ตฌํด์ผํ๋ค.
Log-odds๋ ์ฌ๊ฑด์ด ๋ฐ์ํ ํ๋ฅ ์ ๋ฐ์ํ์ง ํ์ง ์์ ํ๋ฅ ๋ก ๋๋ ๊ฐ์ธ odds์ log๋ฅผ ์ทจํ ๊ฐ์ด๋ค.
# Log-Odds = log(์ฌ๊ฑด์ด ๋ฐ์ํ ํ๋ฅ / ์ฌ๊ฑด์ด ๋ฐ์ํ์ง ์์ ํ๋ฅ )
import numpy as np
log_odds = np.dot(features, coefficients) + intercept

์์์ ๊ตฌํ Log-Odds๋ฅผ Sigmoid๋ผ๋ ํจ์์ ๋ฃ์ด์ ํตํด์ ๊ฐ์ ๋ถ๋ฅํ๋ค.

# ํ์ด์ฌ์์ ๊ตฌํํ Sigmoid ํจ์
sigmoid(Z) = 1 / (1 + exp(-Z))
Log Loss
๋ชจ๋ธ์ โ์ ํฉ์ฑโ ํ๊ฐ๋ฅผ ์ํด ๊ฐ ๋ฐ์ดํฐ์ ์ํ์ ์์ค(๋ชจ๋ธ ์์ธก์ด ์ผ๋ง๋ ์๋ชป๋์๋์ง)์ ๊ณ์ฐํ ๋ค์ ๊ทธ๊ฒ๋ค์ ํ๊ท ํ ํด์ผ ํ๋ค.

โญ๏ธ Logistic Regression์ ๋ชฉํ๋ Log Loss๊ฐ ์ต์์ธ ๊ณ์์ ์ ํธ์ ์ฐพ๋ ๊ฒ์ด๋ค. โญ๏ธ
๊ฒฝ์ฌํ๊ฐ๋ฒ(Gradient Descent)์ ์ฌ์ฉํ์ฌ ๋ชจ๋ ๋ฐ์ดํฐ์์ ๋ก๊ทธ ์์ค(Log Loss)์ ์ต์ํํ๋ ๊ณ์๋ฅผ ์ฐพ์ ์ ์๋ค.
Logistic Regression ๊ตฌํ
Logistic Regression.ipynb
Colaboratory notebook
colab.research.google.com
'AI > Coursera' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[Coursera] 6. Opitmization (0) | 2023.12.31 |
---|---|
[Coursera] 5. Optimization Problem (0) | 2023.12.28 |
[Coursera] 4. Practical Aspects of Deep Learning (0) | 2023.12.27 |
[Coursera] 3. Gradient Descent (0) | 2023.12.27 |
[Coursera] 1. Neural Network (0) | 2023.08.28 |