728x90
728x90

목표 - 대량의 데이터로 언어 모델이 일반화된 지식을 갖도록 학습하는 사전 학습의 목적과 작동 원링 대해 이해하기

언어의 모호성과 중요성을 파라미터에 잘 적용시키는 것
미세조정 == fine tuning



각각 학습한 뒤 합쳐서 새로 사용한다.


Fast txt나 Glove로 보완은 되었으나 모두 해결된 것은 아니다.


중요한 정보가 앞에 있을 경우 거의 전달되지 않는 문제



15% 정도 Mask를 사용하면 성능이 좋았다.

이렇게 하여 MASK 토큰을 원래 단어로 예측하도록 만든다.

여기선 n개를 보고 그 뒤를 예측하고, 또 n개를 보고 그 뒤를 예측하는 것의 반복이다.

모델의 강건성과 불확실성을 개선할 수 있다.

728x90
'인공지능 > 자연어 처리' 카테고리의 다른 글
| 자연어 처리 모델 학습 - 파인 튜닝(Fine tuning)이란? (1) | 2024.03.29 |
|---|---|
| 자연어 처리 모델 학습 - 전이 학습(Transfer Learning)이란 (0) | 2024.03.29 |
| 자연어 처리 python 실습 - 간단한 답변 랭킹 모델 만들기 (1) | 2024.03.28 |
| 자연어 처리 문장 embedding 만들기 - BERT (0) | 2024.03.28 |
| 자연어 처리 문장 embedding 만들기 - GPT (0) | 2024.03.27 |