Gradient descent algorithm (1) 썸네일형 리스트형 [기초 ML] Gradient descent algorithm 이전 기초 ML 내용을 한번 복습한 후 이 포스팅을 보자! https://chaeso-coding.tistory.com/46 [기초 ML] Linear Regression 개념 ◎ Linear Regression : 선형 회귀 [그림 1]을 수식으로 나타낸다면 y=ax+b이다. y는 세로축, x는 가로축, a는 기울기, b는 절편이다. [그림 1]의 식은 선형 회귀에 적용할 수 있다. 어떠한 값을 선형 회귀로 chaeso-coding.tistory.com 저번에 살펴보았던 Hypothesis와 Cost(W, b)의 수식은 다들 기억할 것이다. Cost(W, b)값을 구해서 최소화시키는 이유는 예측값과 실제 값의 차이인 에러를 최소화시키기 위함이다. 이는 ML의 실질적인 학습 목표이기도 하다. Cost(W.. 이전 1 다음