반응형

인공지능 770

모두를 위한 머신러닝 11주차 퀴즈

SVM에 관한 다음 설명 중에서 올바른 것을 모두 고르시오.하나 이상을 선택하세요.두 벡터 사이의 각도가 90°−270° 범위에 있으면 내적은 음수가 된다두 벡터 사이의 각도가 90°−270° 범위에 있으면 내적은 양수가 된다SVM에서 가중치 벡터에 대한 데이터의 투영이 클수록 비용 함수 값은 더 커진다SVM에서 가중치 벡터에 대한 데이터 투영이 클수록 비용 함수 값은 더 작아진다내적에서 반대 방향 (90 ~ 270도)는 음수가 된다!, 아까 가중치 벡터는 투영된 데이터와 반비례 하므로 투영된 데이터가 커지면 가중치 벡터는 작아지고, 비용함수는 작아진다!SVM에 관한 다음 설명 중에서 올바른 것을 모두 고르시오.하나 이상을 선택하세요.두 벡터 사이의 각도가 90°−270° 범위에 있으면 내적은 음수가 된..

인공지능/공부 2024.05.18

모두를 위한 머신러닝 11주차 5차시 - SVM 적용하기

미리 정의할 것 ! - C,  커널의 종류  커널이 없다 == 리니어 커널 == 입력과 출력이 동일하다. f == x 1과 크거나 같다 == 1, 아니다 == 0  커널을 사용할 때는 특징값 스케일링이 필수적이다!큰 값에 지배되기 쉽다. 유사한 값으로 만들어서 영향을 비슷하게 만들자 커널이 될 수 있는 조건을 만족하는 함수를 사용해야 된다. - Mercer's theprem   라이브러리는 다양하다!   다중 분류 문제에서도 사용 가능하다!다대 1? or 다른 패키지 사용하기 SVM을 k개 구현하기! 특징이 많은 경우 로지스틱 회귀를 적용한다.  n이 작고, m이 큰 경우 !!- 데이터가 큰 경우 -> 특징값의 개수를 늘린다.logistic 회귀와 커널 없는 svm은 비슷하다.DNN은 학습하는데, 연산하..

인공지능/공부 2024.05.18

모두를 위한 머신러닝 11주차 4차시 - 커널의 개념

복잡한 분류 문제는 비선형적인 분류 경계선이 필요하다.다항식 형태로 복잡한 비선형 문제의 분류선을 만들 수 있었다.다항식을 일반화시켜서 생각해보자다항식 항 외에도 더 좋은 선택이 있을까?다항식은 계산량이 많다는 문제가 있다.3개의 점을 랜드마크로 표시했다.커널 - 유사도!가우시안 커널 거리에 따른 커널 구하기!멀어지면 0, 가까워지면 1 시가마가 작아지면 - 폭이 좁아진다. 시그마에 따라 폭이 달라지게 된다.l1에 가깝기 때문에 1이 된다.모두와 멀게 되면 0으로 예측하게 된다.ㅣ1,ㅣ2 랜드마크와 가까우면 1, 멀면 0이 된다!이렇게 하여 복잡한 분류 선을 만들 수 있다. x대신에 f를 사용한다!시그마가 크다 -> 폭이 커진다 -> 언더 피팅

인공지능/공부 2024.05.18

모두를 위한 머신러닝 11주차 3차시 - 최대 마진 분류의 수학적 개념

기하학적으로 2차원 벡터 평면로 표현할 수 있다.그럼 이 둘의 내적은 어떻게 될까?백터의 크기는 스칼라 값이다.p의 길이는 v의 그림자 길이와 같다.부호가 있어서 +도 -도 가질 수 있다.1보다 크다는 것의 의미가 뭘까?이렇게 되면 원점을 지날 수 밖에 없다.n = 2라는 것은 2차원 공간이라는 것이다.decision 바운더리와 weight는 항상 직교한다.p와 w는 반비례한다.w가 커진다면 비용함수가 증가한다!-> p가 커야한다.이렇게 p가 크다면 w가 작아서 비용함수가 작아진다.최대 마진 분류 선을 만들어서 일반화 성능이 높다 ! -> 이상적이다.

인공지능/공부 2024.05.18

모두를 위한 머신러닝 11주차 2차시 - 최대 마진 개념

SVM이 왜 최대 마진 분류기라고 불리는지 ?좀 더 안전한 마진이 생기도록 변환한 것이다!빨간색 영역에 대해서는 고려하지 않는다.cost 함수의 값을 0으로 하여 전체 비용 함수를 다시 표현하면 간단하게 표현할 수 있다.그럼 정규화 항을 통해서만 학습하나....? 마진이 뭘까? - 오차?두 데이터 간의 거리이다.w 값을 극대화 해야 한다. 이진 분류 문제에서 생각해보자 이론적으로 많은 경계를 구할 수 있지만 최대 마진은 하나만 존재한다!마진 위의 데이터를 서포터 백터라고 한다. 이상치가 존재하는 경우 어떻게 될까?여기서 매우 특이한 데이터가 추가된다.C가 매우큰 경우 잘못된 데이터에 매우 민감하다.C가 매우 큰 경우 잘못된 데이터에 민감하다.C가 작은 경우 이상치에 민감하지 않다.C 값이 너무 크지 않으..

인공지능/공부 2024.05.17

모두를 위한 머신러닝 11주차 1차시 - SVM의 최적화 목적 함수

오른쪽이 더 큰 마진을 가지고 있으므로 더 잘 분류한다고 볼 수 있다. 이 것을 단순한 직선형태로 표현해보자!직선의 기울기는 중요하지 않다이 것도 근사화 해보자정규화 항도 포함시켰다.직선함수로 근사화 시켜서 계산량이 훨씬 적다.m은 데이터 샘플 개수이다.최소화하는 과정에 있어서 양수를 곱하는 것은 결과에 영향을 주지 않는다.C는 정규화 항에서 나온다.  단지 m과 람다를 통해 단순화 시켰다.

인공지능/공부 2024.05.17

gpt 활용 노이즈 제거 및 업스케일링 최종

PSNR 비교 결과방법PSNRMedian Filter 후 에지 검출 및 필터 적용 + Bilinear 보간법24.96Bilateral Filter 후 에지 검출 및 필터 적용 + Bilinear 보간법25.11Bilateral Filter + Bilinear 보간법25.34결론양방향 필터 + Bilinear 보간법: 이 방법이 가장 높은 PSNR 값을 기록했습니다 (25.34).최종 추천 방식가장 높은 PSNR 값을 얻기 위해 양방향 필터 + Bilinear 보간법 방식을 사용하는 것이 가장 효율적입니다.노이즈 제거: 양방향 필터를 사용하여 효과적으로 노이즈를 제거합니다.업스케일링: Bilinear 보간법을 사용하여 이미지 크기를 증가시킵니다.이 방법은 이미지의 디테일을 최대한 보존하면서 노이즈를 효과적..

gpt4o 활용 업스케일링, 노이즈 제거방식 비교하기

업로드하신 파일을 사용하여 다양한 필터링과 업스케일링 방법을 적용한 후 PSNR 값을 비교하는 작업을 수행하겠습니다. 이 작업을 위해 다음과 같은 단계를 거치겠습니다.미디안, 가우시안, 양방향 필터를 사용한 후 PSNR 비교미디안 필터 후 엣지 검출 없이, 미디안 필터 후 엣지 검출하여 엣지에 따른 필터 적용, 양방향 필터 후 엣지 검출하여 엣지에 따른 필터 적용 후 PSNR 비교근접, Bilinear Upsampling, nTap Interpolation, 바이큐빅 업스케일링 후 PSNR 비교다음은 이를 구현한 코드입니다.import cv2import numpy as npfrom skimage.metrics import peak_signal_noise_ratio as psnr# 파일 경로original..

GPT 활용하여 사진 noise 제거 및 upscaling 분석

미디언 필터와 가우시안 필터를 사용하여 노이즈를 제거하고, 결과 이미지를 업스케일링한 후 PSNR 값을 비교해 보겠습니다.코드 구현다음은 미디언 필터와 가우시안 필터를 사용하여 노이즈 제거를 수행하고, 각 결과 이미지를 업스케일링한 후 PSNR 값을 계산하는 코드입니다.import cv2import numpy as npfrom skimage import io, img_as_ubytefrom skimage.metrics import peak_signal_noise_ratio as psnr# Load imagesinput_image = io.imread('/mnt/data/B1FDWY.bmp')reference_image = io.imread('/mnt/data/B1FY.bmp')# Apply median ..

인공지능과 빅데이터 15주차 - 딥러닝, 정형데이터 다중 분류

1차시 - 정형 데이터 다중 분류 1출력값의 합이 항상 1로 고정된다.또 데이터 저장하기!class를 컴퓨터가 이해할 수 있도록 변경해줘야 한다.섞였다.데이터 시각화!주황색은 구분되어 있지만 파란색과 초록색은 섞여있다.옹... 이걸 이렇게 변환하네요...? 2차시 - 비정형 데이터 다중 분류 실습 1라이브러리 입력데이터나누기데이터전처리라벨 원핫 인코딩을 진행했다.학습하고 시각화까지 진행한다. 3차시 - 비정형데이터 다중 분류 실습 2

인공지능/공부 2024.05.14
728x90
728x90