반응형

인공지능 780

딥러닝개론 8~9장 순환 신경망

시계열 문제 - 시간에 따라 변하는 데이터를 사용하여 추이를 분석, 추세를 파악하거나 향후 전망 예측 불규칙 변동 irregular variation - 시간에 따른 규칙성 없이 예측 불가능하고 우연적으로 발생하는 변동추세 변동 trend variation - 시계열 자료가 갖는 장기적 변화 추세(장기간에 걸쳐 지속적으로 증가, 감소 or 일정한 상태를 유지하려는 성향 == 짧은 기간에서는 힘들다.)순환 변동 cyclical variation - 2~3년 정도의 일정한 기간을 주기로 순환적으로 나타나는 변동 == 1년 이내 주기로 곡선을 그리며 추세 변동에 따라 변동 계절 변동 Seasonal variation - 계절적 영향과 사회적 관습에 의해 1년 주기로 발생 == 계절에 따라 순환하며 변동시계열 ..

인공지능/공부 2024.06.15

인공지능과 빅데이터 1 ~ 5 주 차 정리

1주차 - 교과목 개요 1차시 - 교과목 소개 IoT = 사물인터넷 = 인터넷에 연결되어 데이터를 공유할 수 있는 사물 = 연결성이 좋다. = 데이터를 계속 생산한다.IoE = 만물인터넷 = 연결 가능한 모든 것이 인터넷에 연결되는 것 (사람, 사물, 데이터, 프로세스 등) = 데이터를 엄청나게 생산 클라우딩 컴퓨팅 기술로 적은 리소스로도 대규모 머신러닝 사용 가능 엣지 컴퓨팅 - 실시간 빅데이터 처리에 효과적, 분산 컴퓨팅 페러다임 중 하나  2차시 - 인공지능의 역사 1차 산업 혁명 : 증기기관, 기계화2차 산업 혁명 : 전기 에너지 산업화 3차 산업 혁명 : 컴퓨터, 인터넷 정보화4차 산업 혁명 : 인공지능, 빅데이터, 초연결 지능화연도구분주요 내용기타1943 ~ 1956준비기맥걸럭과 피츠앨런튜링프..

인공지능/공부 2024.06.14

모두를 위한 머신러닝 퀴즈, 중간고사, 기말고사 모아보기

다음 중에서 지도 학습 알고리즘을 가장 적절하게 사용할 수 있는 응용 예는 무엇인가?하나를 선택하세요.1. 어떤 소비자가 구매한 물품에 대한 기록을 이용하여, 그 소비자가 함께 구매할 가능성이 높은 물품들에 대한 패턴을 발견하고자 함2. 어느 회사의 최근 5년간 주식 가격 데이터를 이용하여 내년 특정한 시기에 그 주식의 가격이 얼마가 될지 예측하고자 함 정 답피드백지도 학습이란 정답이 주어진 학습데이터를 이용하여 컴퓨터가 주어진 입력에 대한 올바른 결과를 예측하도록 학습하는 과정입니다.과거 데이터를 학습하여 미래의 값을 예측하는 문제는 지도 학습 알고리즘을 효과적으로 사용할 수 있는 응용문제 중 하나 입니다.정답 : 어느 회사의 최근 5년간 주식 가격 데이터를 이용하여 내년 특정한 시기에 그 주식의 가격..

인공지능/공부 2024.06.14

모두를 위한 머신러닝 총 정리

정리내용을 GPT에 던지고 다듬은 글입니다.2024.06.09 - [인공지능/공부] - 모두를 위한 머신러닝 1 ~ 7주차 정리 모두를 위한 머신러닝 1 ~ 7주차 정리1주 차 1차시 - 머신러닝이란?머신러닝이란 == 이전의 경험이나 사례를 바탕으로 새로운 패턴을 예측한다.인공지능 == 컴퓨터 시스템으로 인간의 지능으로 해결할 수 있는 문제를 푼다.시각 인지yoonschallenge.tistory.com2024.06.10 - [인공지능/공부] - 모두를 위한 머신러닝 9 ~ 14주차 정리 모두를 위한 머신러닝 9 ~ 14주차 정리9주 차 1차시 - 예측 함수 성능 평가Cost function은 실제 출력(예측 값), Label,  regularization으로 이루어져 있다.테스트 데이터는 학습에 사용되..

인공지능/공부 2024.06.14

딥러닝 개론 1 ~ 7강 정리

빠르게 후딱후딱 넘어가겠씁니다.자세한건 여기서...2024.04.22 - [인공지능/공부] - 딥러닝개론 정리 1 - 머신러닝, 딥러닝, backpropagation, 잡음 주입, 정규화, 규제화 딥러닝개론 정리 1 - 머신러닝, 딥러닝, backpropagation, 잡음 주입, 정규화, 규제화인공지능 - 인간의 지능을 모방하여 사람이 하는 일을 기계가 할 수 있도록 하는 기술 머신러닝 - 데이터의 특징을 스스로 판별하지 못한다. 딥러닝 - 데이터의 특징을 스스로 분석하여 답을 찾yoonschallenge.tistory.com2024.04.22 - [인공지능/공부] - 딥러닝개론 정리 2 - Convolution, CNN, 합성곱 딥러닝개론 정리 2 - Convolution, CNN, 합성곱공간 데이터..

인공지능/공부 2024.06.14

생성형 인공지능 입문 온라인 기말고사

스타일 전송(Style Transfer) 기술의 주요 목적은 무엇입니까?하나를 선택하세요.a. 이미지의 대비와 색상 조정b. 한 이미지의 스타일을 다른 이미지에 적용하여 새로운 이미지 생성c. 이미지의 크기 조정d. 이미지의 해상도 향상이건 b네요 화풍을 입히기도 했으니스타일 전송(Style Transfer) 기술의 주요 목적은 무엇입니까?정답은:b. 한 이미지의 스타일을 다른 이미지에 적용하여 새로운 이미지 생성이유:스타일 전송(Style Transfer)은 컴퓨터 비전 및 딥러닝 기술을 사용하여 한 이미지의 스타일(색상, 질감, 패턴 등)을 다른 이미지의 내용(content)에 적용하여 새로운 이미지를 생성하는 기술입니다. 예를 들어, 유명 화가의 그림 스타일을 사용하여 사진을 해당 화가의 그림처럼 ..

인공지능/공부 2024.06.14

생성형 인공지능 입문 11 ~ 14주 차 정리, 퀴즈

11주 차 - 언어 기반 영상 생성1차시 -  언어 기반 영상 생성 구조언어 명령 기반 영상 생성용 트렌스포머 아키텍쳐언어 처리 부분 - Language Encoder시각 정보 처리 부분 -Visual Encoder트렌스포머 인코더 - Encoding Visual and Language Informatoin트렌스포머 디코더 - Deoder for Image Generation영상 생성 및 손실 함수 - Optimization and Loss Function언어 명령 기반 영상 생성용 트렌스포머 모델 - 영상 생성과 언어 명령을 결합한 트랜스포머 모델시각 및 언어 정보를 효과적으로 결합하여 영상을 생성 및 조잧언어 처리 부분은 input을 임베딩하고, 이를 transforemr encoder layer에 ..

인공지능/공부 2024.06.14

생성형 인공지능 입문 6~7, 9 ~10 주 차 정리, 중간 고사, 퀴즈

6주 차 - LLM1차시 - BERTBERT - Bidirectional Encoder Representations from Transformer로 Google의 모델이다.대규모 텍스트를 통해 언어 표현을 Pre-trained 하여 언어 이해를 하고, 나중에 Downstream으로 학습한다.Pre-training 모델ELMo - 양방향 LSTMBERT - 양방향 AttentionGPT - 단방향 AttentionEmbeddingToken Embedding : 단어 벡터를 이용해 후속 분류 작업 시행Segment Embedding : 임의의 두 문장을 구분하는데 사용([SEP] 토큰도 있지만 서로 보완해 준다.)Position Embedding : 트랜스포머와 달리 trigonometric 기반이 아니다...

인공지능/공부 2024.06.13

자연어 처리 기말고사 대비 문제 만들기

10강 - Language model with GPTOX 문제Language Modeling은 다음 단어를 예측하는 작업이다. (O/X)정답: O해설: Language Modeling의 기본 개념은 주어진 단어 시퀀스에서 다음에 올 단어를 예측하는 것이다.GPT-1은 양방향 self-attention을 사용한다. (O/X)정답: X해설: GPT-1은 단방향 self-attention을 사용하여, 다음 단어를 예측하기 위해 이전 단어들만을 고려한다.Perplexity는 Language Model 평가에서 사용되는 표준 평가 지표이다. (O/X)정답: O해설: Perplexity는 주어진 모델이 텍스트 데이터를 얼마나 잘 예측하는지를 나타내는 지표로, cross-entropy loss의 지수이다.GPT-1은..

자연어 처리 기말고사 정리

10강 - Language Modeling with GPTMasked LM - encoder에서 진행되는 과정으로 마스킹된 단어를 맞춘다.BERT가 Transformer의 Encoder를 사용하여 양방향 Self attention을 진행하여 마스킹된 단어 예측을 진행한다.LM - Decoder에서 진행되는 과정으로 다음 단어를 예측한다.input으로 이전 단어를 넣고 가장 높은 확률을 가지는 단어를 가지고 오는 것을 반복한다. == auto aggressiveGPT가 Transformer를 사용해 단방향 Self attention을 진행하고, 이전 컨택스트만 가지고 예측한다.n-gram : n개 단어까지만 확인해서 그 확률이 어떻게 되는지 보고, 높은 단어를 가지고 온다 - 통계적 방법앞의 문맥을 버리고..

728x90
728x90