728x90
728x90
이전 시간의 w를 어떻게 구할까에서 나온 것이 비용함수 즉 오차를 구하는 함수이다.
오차의 양수, 음수 차이를 없애기 위해 제곱한다.
비용함수 최적화는 즉 이 J를 최소화 시키기 위해 움직인다.
비용함수를 쉽게 만들기 위해 w0를 없앤다.
m = 3이다.
비용 함수값이 최소화되는 파라미터 값을 찾는 것이 목적이다.
-> 미분을 해서 최소값이 되는 곳으로 간다!
파라미터가 2개라면 3차원이 나오게 된다.
이것을 효과적으로 표현하기 위해 등고선으로 표현하기도 한다.
중심점에 가까울 수록 좋은 예측함수라고 볼 수 있다.
점점 중심점으로 보내게 된다.
이정도면 오차도 상당히 적게 나올 것이다.
같은 등고선 위치에 있다면 오차는 같으나 파라미터가 달라서 모양이 다르다.
728x90
'인공지능 > 공부' 카테고리의 다른 글
머신러닝 2주차 4 - 경사 하강 개념 (0) | 2024.03.12 |
---|---|
머신러닝 2주차 3 - 경사 하강 Gradient descent (0) | 2024.03.12 |
머신러닝 2주차 1 - 선형회귀 (0) | 2024.03.12 |
생성형 인공지능 퀴즈 2 (0) | 2024.03.11 |
생성형 인공지능 - 퀴즈 1 (0) | 2024.03.11 |