728x90
728x90



이전에는 엔진 파어만을 통해 자동차 가격을 예측했다.


비용함수를 최소화하는 값을 찾으면 그 값을 가설에 대입하면 끝이었다.

데이터는 205개가 주어졌다.

cost function은 비슷하다. 그저 하나가 늘은 것 뿐이다.

변수가 여러가지라면 벡터로 표현하면 편하다.



w*는 최적 값이다.

경사 하강법

변수가 한개일 경우


변수가 2개 이상일 경우

특징의 개수 - n
학습 데이터 개수 - m


데이터의 총 개수는 205개이다.

w0는 바이어스 파라미터이다. -> x에 1을 하나 추가해준다.



이 것도 벡터화 시킬 수 있다.


우리 x0 = 1로 만들어서 굳이 안나눠도 되지 않나...?

728x90
'인공지능 > 공부' 카테고리의 다른 글
| 머신러닝 3주차 3차시 - 경사 하강, 학습 속도 (0) | 2024.03.18 |
|---|---|
| 머신러닝 3주차 2차시 - 특징 값 스케일링 (0) | 2024.03.18 |
| 인공지능과 빅 데이터 3주차 3차시 - 규칙기반 시스템, 전문가 시스템 (1) | 2024.03.18 |
| 인공지능과 빅 데이터 3주차 2차시 - 지식 표현과 추론, 지식 표현의 불확실성 (2) | 2024.03.18 |
| 인공지능과 빅 데이터 3주차 1 - 규칙 기반 시스템, 지식 기반 시스템 (0) | 2024.03.18 |