반응형

소프트웨어 956

강화학습 정리 - 2강 마르코프 프로세스

모든 상태를 행렬로 포함한다. - 행별로 쭉 더해서 1이 되는지 확인 확률로 정의하는데 t 이전의 과거는 필요없다! -> 메모리 감소 효과도 있다. 체인 룰에 의해서 다음을 계속 예측할 수 있다. 모든 상황이 마르코프 상태가 맞는 것은 아니라 정답이 아닐 수 있다. 그러나 모델링은 가능하다! 자율주행에서의 현재 상태 == 한 장만으로는 판단할 수 없다. - 10초간의 여러 사진을 하나로 볼 수 있다. 감쇠인자를 통해 미래 보상의 불확실성을 표현할 수 있따. 리턴의 정의 : 특정 시점, 상태에서의 리워드 합 G: 리턴, R: 보상, S: 상태 리턴(G)가 과도하게 커지면 프로그램의 숫자 표현형을 넘길 수 있고, 게임이 안 끝날 수 있다. 가치(V) != 리워드(R)! 내가 미래에 무엇을 받을 지 모르니 기..

인공지능/공부 2024.04.20

C언어 영상 처리 - Gamma

사람 눈은 카메라처럼 1픽셀 단위로 따박따박 인식 X오차가 있다.어두운 부분을 좀 더 세밀하게 나눌 수 있다고 볼 수 있다. -> 어둠에 민감!감마 인코딩을 거치면 훨씬 잘 나뉘어 보인다.8비트이므로 우린 MAX = 255이다.전파의 수, 송신 오류로 감마가 변하거나 센서의 부족함으로 감마가 입혀졌어도 다시 되돌릴 수 있다.함수형으로 전부 바꾸는중이라 점점 단순해지는중..void GammaOut(double* y, double g, BITMAPFILEHEADER bmpFile, BITMAPINFOHEADER bmpInfo) { int width = bmpInfo.biWidth, height = bmpInfo.biHeight, size = bmpInfo.biSizeImage; double* gy; gy =..

언어/C 2024.04.18

C언어 영상처리 예정

패딩 - 반사 패딩, 엣지 패딩 등 좀 더 다양하게 알아보기 영상처리에서 필터를 적용하기 전에 사용하는 패딩에는 다양한 종류가 있습니다. 아래에서 몇 가지 패딩 방법을 설명해드리겠습니다: Nearest Padding (가장 가까운 픽셀 복사): 이미지의 가장자리에 있는 픽셀을 복사하여 패딩합니다. Zero Padding (0으로 픽셀 테두리 값 채우기): 이미지의 테두리 값을 0으로 채워 패딩합니다. 주로 컨볼루션 연산에서 사용됩니다. Reflection Padding (반사 패딩): 이미지의 가장자리 값을 반사하여 패딩합니다. 이 방법은 이미지 경계를 부드럽게 처리하는 데 도움이 됩니다. Edge Padding (엣지 패딩): 이미지의 가장자리 값을 가장 가까운 픽셀 값으로 채워 패딩합니다. Const..

언어/C 2024.04.17

C언어 영상처리 다양한 필터

이미지 처리에서 사용할 수 있는 다양한 필터들이 있으며, 각각 특정 종류의 노이즈와 상황에 따라 장단점이 있습니다. 여기서 몇 가지 일반적인 필터들을 소개하고, 각각의 용도와 추천 상황에 대해 설명하겠습니다. 1. 평균 필터 (Mean Filter) 설명: 주변 픽셀의 평균 값을 사용하여 현재 픽셀 값을 대체합니다. 장점: 간단하고, 연산 속도가 빠릅니다. 단점: 에지(edge)가 흐려질 수 있으며, 극단적인 노이즈에는 효과가 제한적입니다. 적합한 사용 경우: 이미지에서 무작위 노이즈를 감소시키고 싶을 때, 그러나 에지 보존이 중요하지 않은 경우. 2. 미디언 필터 (Median Filter) 설명: 주변 픽셀들을 크기 순으로 정렬한 후 중앙값을 선택하여 현재 픽셀을 대체합니다. 장점: 솔트 앤 페퍼 노..

언어/C 2024.04.17

생성형 인공지능 특강

생성형 인공지능 - 어마어마하게 많은 GPU가 필요하다. 달리나 chat GPT - 몇 만개의 GPU사용 ? 다양한 생성 AI가 있다 - 비디오, 텍스트, 사진, 음악 등 자율 주행, 로봇, 드론 등 모든게 AI로 진행되고 있다. ...? 들어오는 것 인식 -> Encorder에서 담당한다. (얼굴 인식 등 Convolution도 인코더와 비슷한 느낌이다) Decorder - 발생 - GPT도 디코더 모델! 컴퓨터 vision(영상처리)의 발전 - 자연어 처리에서 나왔다. Transformer? RNN? 토큰화화 후 자연어를 컴퓨터가 인식할 수 있는 embedding 벡터로 변환 embedding - LSTM과 RNN이 했었다. 길면 죽어! Transformer - 길어도 상관없다. 행렬의 크기만 하드웨..

인공지능/공부 2024.04.17

자연어 처리 중간고사 전 마지막 작성

ELMo (Embeddings from Language Models)는 양방향 LSTM(Long Short-Term Memory)을 기반으로 한 딥 러닝 모델로, 주된 목적은 문맥에 따른 단어 임베딩을 생성하는 것입니다. ELMo는 특정 단어에 대한 임베딩을 생성할 때 단어가 사용된 문맥을 고려하여, 이를 통해 같은 단어라도 다른 문맥에서 다른 의미를 가질 수 있음을 반영합니다. ELMo의 주요 특징과 동작 방식 양방향 LSTM 구조: ELMo는 양방향 LSTM을 사용하여 문장을 처리합니다. 이 구조는 문장의 앞뒤 문맥 모두를 고려하여 각 단어의 의미를 파악할 수 있게 해줍니다. 이는 한 방향으로만 처리하는 일반적인 RNN이나 LSTM과 비교했을 때, 보다 풍부한 문맥 정보를 포착할 수 있는 장점이 있습..

기타 2024.04.17

GPT로 자연어 처리 퀴즈 만들기 2 - embedding, transformer, text mining

PDF 내용을 기반으로 딥러닝과 관련된 10개의 퀴즈 문제와 각 문제에 대한 해설을 준비했습니다. 이 문제들은 딥러닝의 기본 개념, 아키텍처, 기능 등을 다룹니다. 퀴즈 문제와 해설 퀴즈: 딥러닝에서 '활성화 함수(activation function)'의 역할은 무엇인가요? 답: 신경망의 각 노드(뉴런) 출력에 비선형성을 도입하는 것입니다. 해설: 활성화 함수는 신경망의 각 뉴런에서 계산된 선형 합을 입력으로 받아, 비선형 결과를 출력하여 다음 레이어로 전달합니다. 이 비선형성은 딥러닝 모델이 복잡한 문제를 해결할 수 있게 해줍니다. 퀴즈: '역전파(backpropagation)' 과정에서 주로 사용되는 최적화 알고리즘은 무엇인가요? 답: 경사 하강법(Gradient Descent) 해설: 역전파는 네트..

Back propagation 손으로 하나하나 적어보기

단순하게 이렇게 이어진 네트워크가 있다고 가정하겠습니다. 입력은 x, 가중치와 곱해진 값들은 z, activation함수를 통과하면 h, 출력값은 y_hat입니다. 일단 이 경우에는 loss function으로 binary Cross entropy와 MSE를 사용하는 2가지 경우로 볼 수 있죠 그럼 가장 가까운 가중치인 3번째 layer의 첫번째 node에서 나오는 weight를 업데이트 해봅시다. 일단 loss function을 미분해야죠 벌써 지저분.. 그리고 Prediction y (y hat)를 미분합니다. 이것은 z값에 sigmoid를 씌운 값으로 sigmoid 미분을 진행합니다. sigmoid 미분은 하려고하면 귀찮지만 외우면 단순합니다.. 그럼 이제 마지막으로 파라미터로 미분을 때려주면 이전..

인공지능/공부 2024.04.17

자연어 처리 중간고사 애매한 것 정리하기

TF-IDF 에서 로그의 N/D는 (전체 문서 개수)/(나온 문서 개수)이다. Fast Text임베딩은 모든 임베딩이 다있을 때 새로운 단어에 대한 임베딩은 저렇게 n-gram으로 나눠서 만들 수 있다. 흠 모델 관련 문제가 나올지는 모르겠는데... 단어 임베딩은 많은 모델(MLP, CNN, RNN, 로지스틱 회귀)에서 원 핫 인코딩으로 대체할 수 있습니다. • 하위 단어 임베딩을 사용하면 훈련 데이터에 없는 단어에 대한 임베딩을 만들 수 있습니다. 훈련하는 데 훨씬 적은 데이터가 필요합니다. • 주의는 일련의 표현을 형성할 때 어떤 부분에 더 주의를 기울여야 하는지 배울 수 있는 메커니즘을 제공합니다. • BiLSTM은 단어 임베딩을 문맥에서의 사용에 민감하도록 변환할 수 있습니다. • 정적 단어 임베..

728x90
728x90