반응형

2024/03/29 4

자연어 처리 모델 학습 - 파인 튜닝 방법 1

목표 - 파인 튜닝 시 다양한 파인 튜닝 방법에 대해 이해하기 파인 튜닝으로 모델을 학습할 때 이전의 모델에 새로운 레이어를 붙여서 학습한다. 3- 컴퓨팅 연산 능력 부족, 데이터셋 부족, 데이터가 매우 유사할 때 사용 일반화된 피쳐 - 사전학습된 모델이 초반에 잘 뽑아준다. -> 바꾸지 않는다. = freezing한다. 데이터 셋이 크다 = 일반적인 패턴을 잡아 낼 수 있다. 모든 레이어를 다 활용하기에는 오버피팅을 할 가능성이 매우 크기 때문에 초반에서 일반화를 잘 했다고 기대하고 고정시킨 뒤에 부분을 학습시킨다. 모델 안에 레이어를 추가하겠다. adapter가 추가되었다. 입력으로 들어가는 프리픽스(prefix) 토큰만 학습시키는 것이다. - 작업이 바뀌면 prefix만 바꾸면 된다. 모델에 영향을..

자연어 처리 모델 학습 - 파인 튜닝(Fine tuning)이란?

목표 - 사전 학습된 모델의 가중치를 미세하게 조정하여, 특정 task를 수행하도록 학습하는 파인 튜닝의 목적과 작동 원리에 대해 이해할 수 있다. 그럼 전이 학습이랑 파인튜닝의 차이점이 뭔데...? 데이터를 만드는 일의 비용이 많이 든다. - 지도 학습의 라벨링을 하는 경우 간에 엄청난 차이가 있을 것인데, 아까 말했듯 사전 학습된 모델의 초반 레이어는 자연어에 대한 유용한 특징을 잘 추출해 낼 수 있다. 보통 사전 학습한 모델의 초반 레이어를 freezing하고 이 후 레이어를 학습시키거나 새로운 레이어를 추가하여 해당 레이어학습하는 등의 방법을 사용한다. 데이터가 충분히 크다면 프리징하지 않아도 되지만 보통 파인 튜닝을 할 경우 데이터가 그렇게 많지 않다. 2. 전설과 가설을 기호로 분류하여 입력 ..

자연어 처리 모델 학습 - 전이 학습(Transfer Learning)이란

목표 - 대량의 데이터로 사전 학습된 모델의 일반화된 지식을 활용하여 특정 자연어 처리 Task를 수행하는 방법인 전이 학습의 목적과 작동 원리에 대해 이해할 수 있다. 제일 마지막 레이어만 새로 학습한다! backbone - 뼈대가 되는 모델 => 모델이 크고 일반화 시킬 수 있어야 한다. 사전학습은 내용이 훨씬 많으며, 새로 배울 내용과 비슷한 특징을 가져야 한다.

자연어 처리 모델 학습 - Pre-training이란

목표 - 대량의 데이터로 언어 모델이 일반화된 지식을 갖도록 학습하는 사전 학습의 목적과 작동 원링 대해 이해하기 언어의 모호성과 중요성을 파라미터에 잘 적용시키는 것 미세조정 == fine tuning 각각 학습한 뒤 합쳐서 새로 사용한다. Fast txt나 Glove로 보완은 되었으나 모두 해결된 것은 아니다. 중요한 정보가 앞에 있을 경우 거의 전달되지 않는 문제 15% 정도 Mask를 사용하면 성능이 좋았다. 이렇게 하여 MASK 토큰을 원래 단어로 예측하도록 만든다. 여기선 n개를 보고 그 뒤를 예측하고, 또 n개를 보고 그 뒤를 예측하는 것의 반복이다. 모델의 강건성과 불확실성을 개선할 수 있다.

728x90
728x90