인공지능/공부

생성형 인공지능 10주차 1차시 - 인코더 디코더 구조

이게될까 2024. 5. 11. 17:32
728x90
728x90

GAN 이전에 나왔어야 하지 않았나 싶긴 한데....

 

잠재 표현 = latent space

RNN -> LSTM, GRU -> BERT, Transformer -> GPT ....

 

image(CNN) -> Text(LSTM) 

 

다양한 어플리케이션이 모든 분야에 적용되고 있다.

영상 인코더 CNN -> Transformer(Vit,PVT SWIN)

언어 인코더 RNN -> LSTM, GRU -> Transformer

인코더 디코더의 결합 - 다양한 변환이 있을 수 있다.

728x90