생성형 인공지능 10주차 1차시 - 인코더 디코더 구조
GAN 이전에 나왔어야 하지 않았나 싶긴 한데.... 잠재 표현 = latent spaceRNN -> LSTM, GRU -> BERT, Transformer -> GPT .... image(CNN) -> Text(LSTM) 다양한 어플리케이션이 모든 분야에 적용되고 있다.영상 인코더 CNN -> Transformer(Vit,PVT SWIN)언어 인코더 RNN -> LSTM, GRU -> Transformer인코더 디코더의 결합 - 다양한 변환이 있을 수 있다.