자연어 처리 - MLP, 최적화, Gradient Descent MLP 이것도 블로그 내에 엄청 자주 나오던 내용이다. 모델 최적화 각각의 미분값들을 계산해 놓아서 저장된 값을 빠르게 사용하여 중복 계산을 막는다. 여기선 다 1이다. ( 변하는 만큼 변한다.) 곱하기에선 비율만큼 움직인다. b는 a의 제곱이니까 넣으면 알 수 있다. Gradient Descent 인공지능/자연어 처리 2024.01.17