-
ML lec 02 - Linear Regression의 Hypothesis 와 cost 설명IT/딥러닝(모두를 위한 딥러닝) 2017. 11. 7. 17:16
Regression은 Supervised Learning의 일종이다.
데이터(Training data)를 학습하여 어떠한 모델을 만들게 된다.
학습이 끝나면, 사용자가 입력을 주면, 학습된 모델을 통해 예측값을 준다.
Linear Regression?
여러 데이터들을 하나의 선(일차방정식)으로 대표하도록 하는 모델. ex) 집크기와 집값, 공부시간과 시험점수
이 선을 찾는 것이 Linear Regression에서의 학습
H(x) = Wx + b
즉 입력 x를 주어 결과인 H(x)와 label을 비교(Cost Function)하여 합당한 W와 b를 찾는 것이 학습이다.
출처: 모두를 위한 딥러닝
Cost Function(=Loss Function)
세운 가설과 실제 데이터가 얼마나 다른지를 나타내는 함수
H(x) - y
여기서 y는 주어진 label
but 위 식은 음수가 될 수 있기 때문에 좋지않다.
그래서, 보통은
(H(x) - y)^2을 사용
이점은 음수가 없어지고, 차이가 작을 때보다 차이가 클 때 페널티를 더 많이 줄 수 있다.
출처: 모두를 위한 딥러닝
학습의 목표?
Cost를 최소화 하는것
출처: 모두를 위한 딥러닝
출처: 모두를 위한 딥러닝
'IT > 딥러닝(모두를 위한 딥러닝)' 카테고리의 다른 글
ML lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명 (0) 2017.11.07 ML lab 02 - TensorFlow로 간단한 linear regression을 구현 (0) 2017.11.07 ML lab 01 - TensorFlow의 기본적인 operations (0) 2017.11.07 ML lec 01 - 기본적인 Machine Learning 의 용어와 개념 설명 (0) 2017.11.07 김성훈 교수님의 모두의 딥러닝 강의 수강 (0) 2017.11.07