목표 - 딥러닝 기반 기계 번역의 목적과 작동 원리 이해하기2,3년 안에 급속도로 발전되어 Chat GPT도 등장하였다.발전 과정을 보면서 핵심, 한계점 등을 봐보자!Seq2seq -> attention -> self-attention(transformer)이게 Seq2Seq아닌가...?통계 기반을 개선하기 위해서 인코더 디코더 구조가 나왔다.앞선 논문은 그저 인코딩이었다면 여기선 word embedding이 진행된다.문장을 입력과 출력으로 받게 되어 기계 번역에 유용하게 사용되었다.통계 기반을 압도적으로 이긴 것은 attention 메커니즘 도입 이후이다.입력문장의 정보를 출력할 때 마다 사용되는 구조이다.양방향 - ELMo나 BERT처럼 문맥을 양방향으로 확인했따.생성할 때 활용할 수 있는 정보의 양..