인공지능/공부

모두를 위한 머신러닝 5주차 퀴즈

이게될까 2024. 4. 2. 00:59
728x90
728x90

 

1. 정규화(Regularization)에 관한 다음 설명 중에서 올바른 것을 모두 고르시오.
하나 이상을 선택하세요.
1 데이터를 그려 보는 것은 과적합의 유무를 판단하는 데 도움이 된다.
2 특징 값의 수를 증가시키면 과적합을 줄일 수 있다.
3 정규화는 파라미터 값의 크기를 줄여 과적합 문제를 예방할 수 있다.
4 정규화는 파라미터의 개수를 줄여 과적합 문제를 예방할 수 있다.

3번은 맞고.... 흠....  문제를 ..... 진짜...... 4번도 사실 맞는 말이고, 특징 값이 뭔데 특징 값이 람다면 과적합을 줄이고, 파라미터면 과적합을 늘릴텐데... 1번도 사실 맞는거고.... 2번 특징값이 파라미터라고 생각하면 2ㅓㅂㄴ만 틀린것 같네요

 

정규화(Regularization)에 관한 올바른 설명을 고르기 위해서 각 명제를 분석해야 합니다:

데이터를 그려 보는 것은 과적합의 유무를 판단하는 데 도움이 된다.

이 명제는 과적합의 직접적인 판단 기준으로 사용되지 않습니다. 데이터를 시각화하는 것은 데이터의 분포, 이상치, 패턴 등을 이해하는 데 도움이 될 수 있으나, 과적합의 유무를 직접적으로 판단하기 위한 명확한 방법은 아닙니다.
특징 값의 수를 증가시키면 과적합을 줄일 수 있다.

실제로는 특징 값(특성의 수)을 무분별하게 증가시키는 것이 과적합을 유발할 수 있습니다. 모델이 훈련 데이터에 너무 맞추어져 일반화 능력이 떨어질 수 있기 때문입니다.
정규화는 파라미터 값의 크기를 줄여 과적합 문제를 예방할 수 있다.

이 명제는 올바릅니다. 정규화(L1, L2 정규화 등)는 모델의 파라미터 값의 크기를 제한함으로써 모델이 훈련 데이터에 과도하게 맞추어지는 것을 방지하고, 일반화 성능을 향상시키는 데 도움을 줍니다.
정규화는 파라미터의 개수를 줄여 과적합 문제를 예방할 수 있다.

정규화는 파라미터의 개수를 직접적으로 줄이지는 않습니다. 대신 파라미터 값의 크기를 제한하여 과적합을 예방합니다. 파라미터의 개수를 줄이는 것은 특성 선택(feature selection)이나 모델의 구조를 단순화하는 것과 관련이 있습니다.
따라서, 올바른 답변은 정규화는 파라미터 값의 크기를 줄여 과적합 문제를 예방할 수 있다 입니다.

입출력 데이터를 그래프로 그려보면, 회귀곡선이 데이터의 분포를 적절하게 따라가고 있는지, 아니면 너무 단순하거나 복잡한지 알수 있으므로 과적합의 유무를 판단하는데 도움이 됩니다. 정규화는 파라미터 값의 크기가 지나치게 커지는 것을 방지하므로 과적합이 발생하지 않도록 합니다.
The correct answers are: 데이터를 그려 보는 것은 과적합의 유무를 판단하는 데 도움이 된다., 정규화는 파라미터 값의 크기를 줄여 과적합 문제를 예방할 수 있다.
2. 정규화 파라미터에 관한 다음 설명 중에서 올바른 것을 모두 고르시오.
하나 이상을 선택하세요.
1 정규화 파라미터의 값이 아주 크면, 선형 회귀의 예측함수가 수평이 될 수 있다.
2 정규화 파라미터의 값이 아주 크면, 선형 회귀의 예측 함수가 감소할 수 있다.
3 정규화 파라미터의 값이 아주 작으면, 과적합 문제가 발생할 수 있다.
4 정규화 파라미터의 값이 아주 크면, 과적합 문제가 발생할 수 있다.

1번 수평이 되겠죠. 2 읭 증가 아녀유? 3 아주 크면 언더 피팅 ! 작으면 오버피팅 가능! 

즉 1,2,3

정규화 파라미터(예: 릿지(Ridge) 회귀의 λ 또는 라쏘(Lasso) 회귀의 α)는 모델의 복잡도에 페널티를 부과하여 과적합을 방지하는 역할을 합니다. 이에 대한 각 명제를 분석하면 다음과 같습니다:

정규화 파라미터의 값이 아주 크면, 선형 회귀의 예측함수가 수평이 될 수 있다.

이 명제는 올바릅니다. 정규화 파라미터의 값이 너무 크면 모델이 데이터에 거의 적합되지 않게 되어, 예측 함수가 데이터의 평균 수준(거의 수평)으로 되는 경향이 있습니다. 이는 특히 라쏘 회귀에서 명확하게 나타날 수 있습니다.

정규화 파라미터의 값이 아주 크면, 선형 회귀의 예측 함수가 감소할 수 있다.

이 명제는 모호하며 일반적인 상황을 정확히 반영하지 않습니다. "감소"라는 표현은 예측 함수의 기울기나 성능 감소를 의미할 수 있으나, 정규화 파라미터의 값이 큰 경우 주로 과적합을 방지하는 효과가 있으며, 예측 함수 자체가 "감소"하는 것은 아닙니다.

정규화 파라미터의 값이 아주 작으면, 과적합 문제가 발생할 수 있다.

이 명제는 올바릅니다. 정규화 파라미터의 값이 너무 작으면, 정규화 효과가 충분히 발생하지 않아 모델이 훈련 데이터에 과적합될 수 있습니다.
정규화 파라미터의 값이 아주 크면, 과적합 문제가 발생할 수 있다.

이 명제는 일반적으로 올바르지 않습니다. 정규화 파라미터의 값이 큰 경우 오히려 과적합을 방지하는 효과가 있으며, 모델이 훈련 데이터에 너무 적합되는 것을 막아줍니다. 다만, 너무 과도한 정규화는 모델이 데이터의 패턴을 충분히 학습하지 못하게 만들 수 있습니다.
따라서, 올바른 답변은 정규화 파라미터의 값이 아주 크면, 선형 회귀의 예측함수가 수평이 될 수 있다와 정규화 파라미터의 값이 아주 작으면, 과적합 문제가 발생할 수 있다 입니다.

정규화 파라미터의 값이 아주 크면, 선형 회귀의 직선이 수평이 될 수 있고, 정규화 파라미터의 값이 아주 작으면, 과적합 문제가 발생할 수 있습니다.
The correct answers are: 정규화 파라미터의 값이 아주 크면, 선형 회귀의 예측함수가 수평이 될 수 있다., 정규화 파라미터의 값이 아주 작으면, 과적합 문제가 발생할 수 있다.
728x90