softmax (2) 썸네일형 리스트형 [Coursera] 8. Softmax 🥑 Coursera의 "Improving Deep Neural Networks: Hyperparameter Tuning, Regularization and Optimization" 강좌의 내용을 배우면서 개인적으로 정리한 내용입니다. Softmax는 주어진 벡터를 다른 벡터로 변환하는 함수로, 일반적으로 다중 클래스 분류 문제에서 출력 확률 형태로 표현하기 위해 사용된다. 입력 벡터의 각 요소를 0 ~ 1 사이의 값으로 변환하며, 모든 요소의 합이 1이 되도록 정규화 한다. 계산 방법 지수 함수를 사용하여 입력 값을 확률 값으로 변환 한다. 입력 벡터 x에 대해 출력 y는 다음 과같이 계산 (yi는 출력 벡터의 i번째 요소, xi는 입력 벡터의 i번째 요소, N은 벡터의 차원 수) 예시 Input vec.. [기계학습/ML]8. 회귀 알고리즘(3) - 로지스틱 회귀 이제 Pupbani는 회귀 문제를 다룰 수 있고 특성값을 전처리하거나 특성을 조합해 새로운 특성을 만들 수 있게 되었다. 어느날 마케팅 팀에서 Pupbani에게 다음과 같은 요청을 했다. "7개의 생선이 랜덤하게 들어 있는 럭키백 이벤트를 진행할 것인데 이 럭키백에 있는 생선들이 나올 확률을 구해주세요!" "생선의 무게 ,길이, 높이, 두께, 대각선 길이 데이터도 같이 드릴게요!" Pupbani는 새로운 과제에 대해 생각에 잠겼다. 갑자기 번뜩이는 아이디어가 떠올랐다. K-최근접 이웃은 주변 이웃을 찾아주니까 이웃의 클래스 비율을 확률이라고 출력하면 되지 않을까? 사각형이 나올 확률 30% 원이 나올 확률 20% 삼각형이 나올 확룰 50% 사이킷런의 K-최근접 이웃 분류기로 하면 될 것 같다. 데이터 준.. 이전 1 다음