인공지능/자연어 처리

자연어 처리 모델 학습 - Pre-training이란

이게될까 2024. 3. 29. 15:40
728x90
728x90

목표 - 대량의 데이터로 언어 모델이 일반화된 지식을 갖도록 학습하는 사전 학습의 목적과 작동 원링 대해 이해하기

 

사전학습이란? Pre-training

언어의 모호성과 중요성을 파라미터에 잘 적용시키는 것

미세조정 == fine tuning

 

자연어 처리 분야의 사전학습

 

각각 학습한 뒤 합쳐서 새로 사용한다.

Fast txt나 Glove로 보완은 되었으나 모두 해결된 것은 아니다.

중요한 정보가 앞에 있을 경우 거의 전달되지 않는 문제

15% 정도 Mask를 사용하면 성능이 좋았다.

이렇게 하여 MASK 토큰을 원래 단어로 예측하도록 만든다.

여기선 n개를 보고 그 뒤를 예측하고, 또 n개를 보고 그 뒤를 예측하는 것의 반복이다.

사전 학습 효과

모델의 강건성과 불확실성을 개선할 수 있다.

 

728x90