728x90
728x90
생성형 인공지능 = Generative AI
LLM이전에는 그렇게 모델이 크지 않았다. LLM이후로 서비스의 폭이 늘어났다.
GPT = Generative Pre-trained Transformer
GPT 전 모델은 BERT (Bidirectional Encorder Representations from Transformers)
사용자 query(텍스트)를 기반으로 텍스트 응답을 형성
지금의 GPT3.5는 Query에 따라 사전적인 방식으로 대답을 한다.
인코더 - 외부의 글자를 코딩한다. 학습을 할 때만 사용한다.
디코더 - 인코더 된 정보를 통해 생성한다.
Masked MSA- 가린뒤 맞추는 방식.
파인 튜닝이 중요하다! 미세조정을 통해 많은 상업적인 결과의 차이도 보고 있다.
이 한계를 극복하기 위해선 최선의 데이터, 지속적인 파인 튜닝이 관건이다. 즉 비용이 어마무시하게 들어간다.
학습 정
728x90
'인공지능 > 공부' 카테고리의 다른 글
생성형 인공지능 1주차 3 - 인지 인공지능과의 차이점 (0) | 2024.03.08 |
---|---|
생성형 인공지능 1주차 2 - 생성형 인공지능이란? (1) | 2024.03.08 |
인공지능 빅데이터 1주차 3차시 - 인공지능 시스템 (1) | 2024.03.06 |
인공지능과 빅데이터 1주차 2차시 - 인공지능의 역사 (2) | 2024.03.06 |
인공지능과 빅데이터 1주차 1차시 - 교과목 소개 (1) | 2024.03.06 |