728x90
728x90
어떤 선수가 가장 좋은 결과를 얻었을까?
비용함수를 최소화해보자
보지 못한 데이터 == 학습 과정에 사용하지 않은 데이터 == 테스트 데이터로 사용한다.
여기서도 잘 작동하면 문제 없다.
오차가 크다 -> 성능 향상 필요
학습데이터 더 많이 수집하기 - 시간과 노력 필요-> 확실하게 알고 시작하기
너무 많은 수의 특징값을 사용하고 있다. - 필요한 특징값 몇개만 사용하여 과적합 방지를 위해 노력한다.
특징 값의 개수를 늘린다.
제곱, 곱하여 새로운 특징값 만들기
정규화 파라미터 람다 감소하기! -> 학습 더 잘 한다.
학습 오차를 최소화하는 파라미터를 선택해야 한다.
새로운 데이터에 대해 일반화 시키지 못한다. == 오버피팅
예측함수를 그려서 시각적으로 확인하기
랜덤하게 선택한 데이터들!
오차를 최소화 하도록 학습 후 테스트 데이터에 대한 비용함수를 구한다!
Logistic regression은 다른 오차 함수를 사용할 수 있다.
잘못 분류한 경우 1, 옳게 분류한 경우 0을 부여한다.
비율을 통해 계산한다.( 0 ~ 100% 까지)
728x90
'인공지능 > 공부' 카테고리의 다른 글
머신러닝 9주차 3차시 - bias, Variance (0) | 2024.05.02 |
---|---|
머신러닝 9주차 2차시 - 최적 모델의 선택(데이터 셋 나누기) (0) | 2024.05.01 |
인공지능과 빅데이터 9주차 3차시 - 빅데이터와 데이터 마이닝 (0) | 2024.04.29 |
인공지능과 빅데이터 9주차 2차시 - 데이터 수집, 관리, 분석 (0) | 2024.04.29 |
인공지능과 빅데이터 9주차 1차시 - 데이터 사이언스 개요, 활용 분야 (0) | 2024.04.29 |