1957 - 프랑크 로젠블럿이 퍼셉트론 이론을 발표!
문제 1 역전파 알고리즘에서 인공 신경망이 깊어질수록 기울기 정보가 사라진다!
문제 2 학습 데이터에 대해서 오차가 감소하지만 실제 데이터에 대해서는 오히려 오차가 증가하는 과적합 문제
문제 3 문제의 규모가 커질 때마다 나타나는 높은 시간 복잡도와 컴퓨터 성능의 한계
-> 인공신경망 이론 정체!
2012년 Res NET을 만들었다. - 이미지 인식의 최고 효율이 되었다.
이제 딥러닝 기술의 핵심 개념 및 특징이 나온다!
backpropagation으로 인해 첫번째 겨울이 사라졌었다. -> 비선형 분류 문제를 풀 수 있어졌다.
심층 신경망 학습이 힘든 것을 해결한 것이 힌튼이다.
그래서 오버피팅이랑 기울기 소실 어떻게 해결했누
다 아는 방식 이었습니다.... 저 분이 만들어 내셨군요.......
일반 신경망 - 이전에 배웠던 다층 퍼셉트론
레이어가 굉장히 많다.
그럼 이제 LeakyReLU도 나오겠네유
활성함수를 쓰는 이유! == 활성함수의 비선형성 반영 - 없으면 backpropagation 시 weight 업데이트가 이루어지지 않는다.
ReLU를 사용하면 - 기울기 소실 문제 없이 출력의 오차를 줄인다.
학습에 사용된 데이터에만 딱 맞는 파라미터이기 때문! -> 실 사용에서 성능이 떨어진다.
무작위로 연결할 노드들을 선택하자!
한 번에 모든 노드들의 파라미터를 업데이트하는 것이 아니기 때문에 과적합이 사라진다.
다층 퍼셉트론 구조 - 노드들과 레이어들로 이루어진 기본적인 형태 -> CNN, RNN으로 발전
순방향으로 네트워크 진행하고, 역방향으로 업데이트한다!
같은 노드들끼리 연결되어있지 않지만, 다음, 이전 노드들은 완전하게 연결되어있다.
CNN도 사실 Deep Neural Network라고 부를 수 있어서 애매하긴 하다.
일단 그냥 3가지로 부를 수 있다 라고 알아두기
은닉층의 개수로 구분하기는 어렵다.
딥러닝 알고리즘 - 역전파 알고리즘이 포함되어 있다.
심층 신경망 = 머신러닝 학습을 깊게!
사람이 feature를 지정한다. - 사람에 따라 너무 성능의 차이가 너무 크다!
-> 딥러닝은 알아서 지정한다. - 뭔진 모른다...
'인공지능 > 공부' 카테고리의 다른 글
인공지능과 빅데이터 6주차 3차시 - 합성곱 신경망, 순환 신경망 (0) | 2024.04.08 |
---|---|
인공지능과 빅데이터 6주차 2차시 - 심층신경망, 딥러닝 개념 (0) | 2024.04.08 |
기계학습 과제 1 찐찐찐찐 최종 (0) | 2024.04.07 |
머신러닝 과제 1 - forward propagation, backward propagation (0) | 2024.04.04 |
딥러닝 과제 1 - 순방향 신경망 약물 안전성 예측 pytorch (0) | 2024.04.03 |