반응형

2024/05 107

생성형 인공지능 입문 9주차 1차시 - style generation 스타일 gan

이미지에 스타일을 변환시켜준다.사이클 GAN(Cycle-Consistent Generative Adversarial Networks, CycleGAN)은 이미지를 하나의 스타일에서 다른 스타일로 변환하는 데 특화된 딥러닝 모델입니다. 이 모델은 특히 페어가 매칭되지 않은 이미지 데이터(즉, 서로 직접적으로 연관된 변환 전과 변환 후 이미지 쌍이 없는 경우)에서 유용하게 사용됩니다. 예를 들어, 실제 사진을 그림처럼 보이게 하거나, 여름 풍경을 겨울 풍경으로 바꾸는 등의 작업에 효과적입니다.CycleGAN의 주요 개념비페어 학습: CycleGAN은 페어링된 데이터가 필요 없습니다. 즉, 정확하게 매치되는 'A' 도메인과 'B' 도메인의 이미지 쌍이 필요 없습니다. 이는 많은 실제 시나리오에서 데이터 수집을..

인공지능/공부 2024.05.02

모두를 위한 머신러닝 9주차 퀴즈

1. 머신러닝 진단 테스트에 관한 다음 설명 중에서 올바른 것을 모두 고르시오.하나 이상을 선택하세요.1. 머신러닝 진단 테스트는 학습 알고리즘의 성능을 향상시키기 위해서 어떤 방법들이 효과적인지 알려준다.2. 예측함수를 평가하기 위해 우리는 데이터를 두 부분으로 나누는데, 약 50%는 학습용이고 50%는 테스트용이다.3. 로지스틱 회귀에서는 오분류 비율을 테스트 셋 오차의 대안으로 사용할 수 있다.2번 테스트 왜이리 많아. 3번은 뭔 말이지....?선택해야 할 올바른 진술은 다음과 같습니다:"머신러닝 진단 테스트는 학습 알고리즘의 성능을 향상시키기 위해서 어떤 방법들이 효과적인지 알려준다."이 설명은 올바릅니다. 머신러닝 진단 테스트는 모델의 성능을 평가하고, 그 결과를 바탕으로 어떤 변경사항이 모델을..

인공지능/공부 2024.05.02

모두를 위한 머신러닝 9주차 5차시 - 학습 알고리즘의 성능 향상

음.... optimizer는 아닐거 같은디파라미터 최적화인가...?epoch를 늘리거나, 복잡도 감소시키거나...오버피팅 해결언더 피팅 해결특징값을 증가시키는 효과가 있다.오버피팅 유의하기!히든 레이어 수 ? 노드 수?노드 수가 많다 - 일반적으로 사용할 수 있다. -> 충분하지 않으면 레이어 수를 늘린다.why?신경망에서 히든 레이어의 노드 수를 늘리는 것은 모델의 용량을 증가시켜 더 복잡한 패턴을 학습할 수 있게 하는 한 방법입니다. 노드 수를 늘릴 때의 주된 이유는 다음과 같습니다:계산 효율성: 레이어의 노드 수를 늘리는 것은 비교적 간단하며, 추가적인 레이어를 도입하는 것보다 계산상의 부담이 덜 합니다. 각 레이어가 추가될 때마다, 네트워크의 깊이가 깊어지고, 이로 인해 학습이 더 어려워질 수 ..

인공지능/공부 2024.05.02

모두를 위한 머신러닝 9주차 4차시 - 학습 곡선

읭 validation이랑 train 학습 loss 곡선인가...?데이터 개수가 증가할 수록 오차가 증가한다. 데이터가 증가함에 따라 train 오차는 늘어나고, validation 오차는 감소한다.train 데이터를 더 많이 수집하더라도 영향을 주지 못한다. 너무 높은 error를 가지게 된다. 복잡도를 늘려늘려validation오차가 감소하는데 train과 차이가 난다. (Large gap) 학습 데이터가 많아지면 갭이 줄어든다.

인공지능/공부 2024.05.02

머신러닝 9주차 3차시 - bias, Variance

언더 피팅 - 지나치게 단순해서 데이터의 추이를 따라가지 못한다.오버 피팅 - 지나치게 복잡하다( 지나치게 높은 차수)적당히 따라가서 트랜드를 잘 따라간다 == 일반화 성능이 우수하다.차수가 증가함에 따라 학습 오차는 점점 준다validation은 일정 이상이 되면 오차가 늘어난다.둘다 크면 언더피팅이죠! == 높은 편향!y 만 관측 가능하고, 입실론 때문에 오차가 발생하게 되낟. y의 평균은 h, 분산은 시그마의 제곱이 된다. 노이즈의 평균값은 0이므로 사라지는 값이 생긴다.시그마 제곱 - 원래 데이터를 생성하는 모델에 포함되어 있는 노이즈의 분산Variance - 파라미터를 완벽하게 예측할 수 없기 때문에 생기는 오차bias - 단순화하였기 때문에 생긴 오차정규화 항이 있다면? 람다 값을 어떻게 잘 ..

인공지능/공부 2024.05.02

머신러닝 9주차 2차시 - 최적 모델의 선택(데이터 셋 나누기)

다항식의 차수는 얼마나 할까? 특징값은 얼마나 포함할까?정규화 파라미터는 어떻게 선택할까?학습, 검증, 테스트 데이터로 나누기!예측 함수가 새로운 데이터에서도 잘 작동한다고 보장할 수 없다.학습 오차가 검증이나 테스트 오차보다 작다.1 ~ 10차 함수까지 다 고려하여 적합한 다항식 차수 찾기이다.test 오차를 검사한다! 검증 데이터는 안쓰네공정한 평가가 아니다! 여기서 validation이 나오네요 세 가지의 오차값을 구할 수 있게 된다.일단 train을 통해 최적 파라미터를 각각 구한다.validation을 통해 최소 오차인 차수를 구한다! -> 그걸로 test data를 오차 계산

인공지능/공부 2024.05.01

머신러닝 9주차 1차시 - 예측 함수 성능 평가(데이터 셋 분류)

어떤 선수가 가장 좋은 결과를 얻었을까? 비용함수를 최소화해보자 보지 못한 데이터 == 학습 과정에 사용하지 않은 데이터 == 테스트 데이터로 사용한다.여기서도 잘 작동하면 문제 없다.오차가 크다 -> 성능 향상 필요 학습데이터 더 많이 수집하기 - 시간과 노력 필요-> 확실하게 알고 시작하기 너무 많은 수의 특징값을 사용하고 있다. - 필요한 특징값 몇개만 사용하여 과적합 방지를 위해 노력한다. 특징 값의 개수를 늘린다. 제곱, 곱하여 새로운 특징값 만들기정규화 파라미터 람다 감소하기! -> 학습 더 잘 한다.   학습 오차를 최소화하는 파라미터를 선택해야 한다. 새로운 데이터에 대해 일반화 시키지 못한다. == 오버피팅 예측함수를 그려서 시각적으로 확인하기 랜덤하게 선택한 데이터들! 오차를 최소화 하..

인공지능/공부 2024.05.01
728x90
728x90