본문 바로가기

STUDY/인공지능

[실습 ML] Simple Linear Regression

728x90

 

텐서플로우로 Hypothesis와 Cost를 구현해보자.

 

1. H(x)=Wx+b

 

2. cost(W,b) = (1/m)(∑(H(x_i)-y_i)^2)

 

텐서플로우로 Gradient descent 경사 하강법을 구현해보자.

 

1.minimize cost(W,b)

1. A.assign_sub(B)

A = A - B
뺀 값을 다시 그 값에 할당해준다.
2. learning_rate

gradient값을 얼마만큼 반영할 것인지를 결정.

 

2. 새로운 데이터로 확인해보기

5, 2.5 각각의 값에 근사한 값으로 나오는 것을 확인할 수 있다.


*부스트 코스 강의 학습 내용입니다.

 

텐서플로우로 시작하는 딥러닝 기초

부스트코스 무료 강의

www.boostcourse.org

 

728x90