2024/06/11 2

자연어 처리 기말고사 정리

10강 - Language Modeling with GPTMasked LM - encoder에서 진행되는 과정으로 마스킹된 단어를 맞춘다.BERT가 Transformer의 Encoder를 사용하여 양방향 Self attention을 진행하여 마스킹된 단어 예측을 진행한다.LM - Decoder에서 진행되는 과정으로 다음 단어를 예측한다.input으로 이전 단어를 넣고 가장 높은 확률을 가지는 단어를 가지고 오는 것을 반복한다. == auto aggressiveGPT가 Transformer를 사용해 단방향 Self attention을 진행하고, 이전 컨택스트만 가지고 예측한다.n-gram : n개 단어까지만 확인해서 그 확률이 어떻게 되는지 보고, 높은 단어를 가지고 온다 - 통계적 방법앞의 문맥을 버리고..

생성형 인공지능 입문 1~5주 차 정리, 퀴즈

1주 차 - 생성형 인공지능이란?1차시 - CHAT GPT란?Chat GPT == LLM : 언어모델(LM)을 더욱 확장한 개념으로 인간의 언어를 이해하고 생성하도록 훈련된 인공지능GPT : 트랜스포머 Decoder 모델인 생성형 사전 학습 트랜스포머를 기반으로 한다. G : Generative = 생성형P : Pre-train = 사전 학습T : Transformer = 자연어를 처리하는 딥러닝 기술, 글자럴 번역한다는 의미 GPT 이전엔 BERT이었고, 사용자의 텍스트(Query)를 기반으로 텍스트 응답을 형성한다.인코더 : 외부의 글자를 인코딩한다. 학습할 때 사용디코더 : 인코더 된 정보를 통해 생성.Transformer Decoder 모델은 Masked Multi-Head Self Attenti..

인공지능/공부 2024.06.11
728x90
728x90