Machine Learning7 Cost Function (비용 함수) (2) 저번 포스팅에서는 θ0 = 0인 경우에 해당하는 Cost Function에 대해 알아보았는데, 이번 포스팅에서는 θ0가 0이 아닌 경우에 대해 알아보자. (이번에도 Coursera 강의를 참고하여 포스팅합니다.) 먼저 Cost Function에 대해서 다시 보면 이렇게 정리할 수 있다. 여기서 생각해야 할 것은 위의 Hypothesis에도 나와있지만 우리는 선형 회귀일 때의 Cost Function을 구하고 있다는 것이다. 저번 포스팅의 경우 역시 선형 회귀인 경우이고 θ0 = 0였기 때문에 Cost Function은 J(θ1)과 θ1, 즉, 변수가 2개이므로 아래 그림처럼 2차원 형태였다. 하지만, θ0가 0이 아닌 경우는 θ0가 살아있기 때문에 J(θ0, θ1)과 θ1, θ0, 즉, 변수가 3개이므로.. 2020. 6. 14. Cost Function (비용 함수) (1) 저번 포스팅에서 간단하게 Cost Function에 대해 알아보았다. 이번 포스팅에서는 Cost Function에 대해 좀 더 자세하게 알아보자. 저번 포스팅에서 Cost Function을 식으로 나타내면 이렇게 나타낼 수 있고 아래 수식은 Cost Function을 최소화하는 W, b를 구하겠다는 뜻인데 Cost Function을 최소화하는 이유가 Cost Function이 작다는 뜻은 각 차이값의 제곱들의 평균이 작다는 뜻이므로 실제값과 예측값의 차이가 적다는 뜻이기 때문이다. 즉, "Cost Function을 최소화 = 실제 데이터와 비슷하게 예측"이라는 의미이다. 이제부터 본격적으로 Cost Function에 대해 알아볼 건데 아래 설명할 내용들은 모두 선형 회귀에 대한 Cost Function이.. 2020. 6. 12. Linear Regression (선형 회귀) (Feat. Cost Function) 이번 포스팅에서는 선형 회귀에 대해서 알아보고자 한다. 여러 글들과 김성훈 교수님의 강의를 참고하여 포스팅한다. 먼저 회귀 분석은 새로운 표본을 뽑았을 때 평균으로 돌아가려는 특징이 있다는 뜻으로 점들이 퍼져있는 형태에서 패턴을 찾아내고 이 패턴을 활용해서 무언가를 예측하는 분석한다는 의미이다. 여기에 선형이 붙어 있는데 말 그대로 선형 방식을 통해 패턴을 찾아내겠다는 뜻이다. 좀 더 자세하게 말하면 Linear Regression (선형 회귀)은 2차원 좌표에 분포된 데이터를 직선 방정식을 통해 표현되지 않은 데이터를 예측하기 위한 분석 모델이다. 물론 실제 세계에서는 워낙 다양하게 데이터들이 있기 때문에 직선 방정식으로만 설명하기엔 당연히 한계가 있지만 지금은 입문 단계니까 자세하게 기술하진 않겠다... 2020. 6. 11. 이전 1 2 다음