경사 하강법 (1) 썸네일형 리스트형 [Coursera] 3. Gradient Descent 🥑 Coursera의 "Neural Networks and Deep Learning" 강좌의 내용을 배우면서 개인적으로 정리한 내용입니다. 경사 하강법(Gradient Descent)은 비용 함수(Cost Function)의 최소값을 구하는 알고리즘이다. 이 알고리즘은 실제로 머신러닝에서 모든곳에서 사용중이다. 경사 하강법을 진행하는 과정 1. θ에 대해 임의의 초기값(시작점)을 잡는다. 2. J가 최소가 될 때 까지 θ값 갱신을 반복하여 최솟값에 도달했을 때의 θ를 찾는다. 미분 값에 대해 경사하강법에서 미분 값은 비용 함수의 기울기를 나타낸다. 비용 함수의 기울기는 현재 파라미터에서 비용 함수의 변화율을 나타내며, 경사의 방향과 크기를 결정한다. 기울기를 사용하여 경사하강법은 비용 함수를 최소화하는 .. 이전 1 다음