본문 바로가기

머신러닝

(4)
[ML 책] 머신러닝이란? 요즘들어 머신러닝/딥러닝 공부를 하면서 수학적 지식이 정말 필수적이구나라는 생각이 많이 듭니다. 물론 수학적인 지식없이도 머신러닝과 딥러닝을 쉽게 접할 수 있습니다. 하지만, 저와같이 인공지능 연구를 하고자 하는 사람이라면 선형대수, 통계학 등 수학 공부는 필수라고 생각이 듭니다. 머신러닝에 필요한 기초적인 수학 공부를 하기 위해 "선형대수와 통계학으로 배우는 머신러닝 with 파이썬" 이라는 책을 읽고 블로그에 요약해보고자 합니다. 오직 제 개인적인 공부 공간으로 사용할 목적으로 포스팅을 할 예정이니 자세한 내용이 궁금하신 분들은 아래 표지 책을 구매하여 공부하시길 바랍니다. [지도학습] 특성 데이터(feature data)와 타깃 데이터(target data)를 기반으로 학습을 하는 것 지도학습을 기..
[실습 ML] Gradient descent algorithm 텐서플로우로 Gradient descent algorithm을 구현해보자. 1. cost function in pure python 2. cost function in tensorflow 3. Cost(W), W의 그래프 4. Gradient descent 5. Gradient descent (2) *부스트 코스 강의 학습 내용입니다. 텐서플로우로 시작하는 딥러닝 기초 부스트코스 무료 강의 www.boostcourse.org
[기초 ML] Gradient descent algorithm 이전 기초 ML 내용을 한번 복습한 후 이 포스팅을 보자! https://chaeso-coding.tistory.com/46 [기초 ML] Linear Regression 개념 ◎ Linear Regression : 선형 회귀 [그림 1]을 수식으로 나타낸다면 y=ax+b이다. y는 세로축, x는 가로축, a는 기울기, b는 절편이다. [그림 1]의 식은 선형 회귀에 적용할 수 있다. 어떠한 값을 선형 회귀로 chaeso-coding.tistory.com 저번에 살펴보았던 Hypothesis와 Cost(W, b)의 수식은 다들 기억할 것이다. Cost(W, b)값을 구해서 최소화시키는 이유는 예측값과 실제 값의 차이인 에러를 최소화시키기 위함이다. 이는 ML의 실질적인 학습 목표이기도 하다. Cost(W..
[기초 ML] Linear Regression 개념 ◎ Linear Regression : 선형 회귀 [그림 1]을 수식으로 나타낸다면 y=ax+b이다. y는 세로축, x는 가로축, a는 기울기, b는 절편이다. [그림 1]의 식은 선형 회귀에 적용할 수 있다. 어떠한 값을 선형 회귀로 구하고자 한다면 그 수식은 H(x)=Wx+b이다. H(x)는 x에 다른 Hypothesis(가설), W는 가중치, b는 편향이다. 선형 회귀를 통해 값을 예측하다 보면 [그림 2]와 값은 그래프가 그려진다. [그림 2]에서 파란색이 우리가 얻고자 하는 값(예측값)이고, 빨간색 점이 선형 회귀를 통해 얻은 실제 값이다. 빨간색 선은 얻고자 한 값과 실제 값의 차이(H(x)-y)이다. [그림 2]와 같이 얻고자 한 값과 실제값의 차이가 양수/음수 모두 나올 수 있다. 이렇게 ..

728x90