728x90
텐서플로우로 Hypothesis와 Cost를 구현해보자.
1. H(x)=Wx+b
2. cost(W,b) = (1/m)(∑(H(x_i)-y_i)^2)
텐서플로우로 Gradient descent 경사 하강법을 구현해보자.
1.minimize cost(W,b)
1. A.assign_sub(B) A = A - B 뺀 값을 다시 그 값에 할당해준다. |
2. learning_rate gradient값을 얼마만큼 반영할 것인지를 결정. |
2. 새로운 데이터로 확인해보기
5, 2.5 각각의 값에 근사한 값으로 나오는 것을 확인할 수 있다.
*부스트 코스 강의 학습 내용입니다.
728x90
'STUDY > 인공지능' 카테고리의 다른 글
[실습 ML] Gradient descent algorithm (0) | 2022.02.07 |
---|---|
[기초 ML] Gradient descent algorithm (0) | 2022.02.07 |
[기초 ML] Linear Regression 개념 (0) | 2022.02.03 |
나를 위한 아나콘다 사용법 정리 (0) | 2022.01.24 |
[Andrew Ng] 로지스틱 회귀 (0) | 2022.01.12 |