본문 바로가기
Developer/Machine Learning

#4. Linear Regression 머신러닝 선형회귀

by Doony 2017. 11. 25.

본 포스팅은 인프런에서 제공되는 "모두를 위한 딥러닝 - 기본적인 머신러닝과 딥러닝 강좌"를 참고하여 만들어졌습니다. 

인프런 URL: https://www.inflearn.com/


이번강의에서는 Linear Regression에 대해서 알아본다. 선형 회귀라고도 하는데, 데이터를 가지고 예측할 수 있게 해준다.


  Linear Regression 선형 회귀

선형 회귀에서의 가설을 세울 필요가 있는데, Linear하다는 Hypothesis가 바로 그것이다. 즉, 선형적인 관계를 나타낼 것이다, 라고 가정하는 것이다. 

H(x) = Wx + b 

데이터의 관계가 일차함수일 것이라는 가정하에, 각 상수를 조절하는 것. 그렇다면 어떤 상수값을 가져야 데이터에 가장 근접하다고 볼 수 있을까? 즉, 지금 갖고 있는 데이터와의 상관성을 먼저 증명해야한다.

Cost Function (Loss Function): 가설과 실제 데이터가 얼마나 다른지를 나타냄. 즉, 데이터와 그래프 사이의 거리.

1. [H(x) - y]^2  (차이를 제곱해줘야 거리의 절대값이 나타나므로)

2. 각각의 x값에 대해서 위 데이터를 모두 더하고, 개수만큼 나눈다.

cost(W, b) = (∑[H(x) - y]^2)/m   (m: 학습 데이터 개수,   W-b: 함수 계수)

cost가 가장 작은 값을 가지는 W와 b를 갖는 것이, linear regression의 학습이 된다. 따라서, 우리의 목표는 minimize cost가 된다. 최소의 cost를 갖는 W와 b를 구하는 것이 학습의 목표!

다음 시간에는 W와 b를 찾아가는 알고리즘을 보는 것으로....




#1. 머신러닝의 정의 Machine Learning

#2. TensorFlow 설치 - GPU

#3. TensorFlow 기본 구문

공감은 큰 힘이 됩니다.

두니월드로 놀러오세요.




댓글