728x90
728x90
GAN 이전에 나왔어야 하지 않았나 싶긴 한데....
잠재 표현 = latent space
RNN -> LSTM, GRU -> BERT, Transformer -> GPT ....
image(CNN) -> Text(LSTM)
다양한 어플리케이션이 모든 분야에 적용되고 있다.
영상 인코더 CNN -> Transformer(Vit,PVT SWIN)
언어 인코더 RNN -> LSTM, GRU -> Transformer
인코더 디코더의 결합 - 다양한 변환이 있을 수 있다.
728x90
'인공지능 > 공부' 카테고리의 다른 글
생성형 인공지능 10주차 3차시 - 영상 주석 생성 1 (0) | 2024.05.11 |
---|---|
생성형 인공지능 10주차 2차시 - 인코더 디코더 동작 원리 (0) | 2024.05.11 |
모두를 위한 머신러닝 10주차 퀴즈 (0) | 2024.05.09 |
모두를 위한 머신러닝 10주차 5차시 - 학습 데이터 수와 테스트 오차의 관계 (0) | 2024.05.09 |
모두를 위한 머신러닝 10주차 4차시 - 정밀도와 재현율의 Trade - off (0) | 2024.05.09 |