시그모이드 때문에 소실이 커진다! 0보다 작은 값에선 미분값이 0이라는 문제가 생겨서 리키렐루가 나오는데 일단 넘어가네유 여기서 리키렐루가 나오네요 가중치 초기화는 0이거나 똑같은 값으로 하지 말라고 했었습니다! 이제 어떻게 하는게 좋은지 봅시다! 분산을 적당히 조절하는 것이 중요하다. 이거하면 바이어스가 필요없다고 했던것 같기도 하고... 이것만 가지고는 뭔가 batch와 layer를 이해하기 어려울것 같아서 gpt 센세를 활용하겠습니다. Batch Normalization과 Layer Normalization은 둘 다 신경망의 학습을 안정화하고 가속화하는 데 사용되는 기술입니다. 두 기술 모두 데이터의 평균과 분산을 정규화하는 과정을 통해 내부 공변량 변화(internal covariate shift..