반응형

인공지능 772

생성형 인공지능 입문 13주차 - Transformer 기반 action 생성

이번 시간은 13주차 입니다. 13주차 강의는 총 5개의 차시로 구성되어 있습니다. 이번 강의에서는 강화학습 리뷰, 판단 트랜스포머, 행동 생성용 트랜스포머, 셰프 로봇의 행동 생성, AI 기반 행동 생성을 다룹니다. 강의를 통해서 여러분은 강화학습, 트랜스포머 기반 강화학습, 행동 생성용 트랜스포머를 설명할 수 있고, 생성형 AI기반 요리로봇, AI기반 행동 생성 기법을 설명할 수 있게 됩니다. 아래 영상의 재생 버튼을 클릭하여 학습을 시작하세요.1차시 - 강화 학습 리뷰강화 학습을 마지막 단에 넣는다.비지도 학습을 통해 추론과 생성을 진행할 수 있다.정책을 따라 리워드를 받고 학습하는 강화학습!SART를 하나의 튜플로 만들어서 확인한다.보상의 중요도가 엄청 높았다. 궁극적으로 많은 리워드를 받는 것이..

인공지능/공부 2024.05.27

모두를 위한 머신러닝 13주차 퀴즈

PCA에 관한 다음 설명 중에서 올바른 것을 모두 고르시오.하나 이상을 선택하세요.PCA는 데이터를 투영하고자 하는 저차원 평면을 찾는다.PCA에서는 평균 정규화가 필요하지만 특징값 스케일링은 필요하지 않다.좋은 PCA 투영은 데이터와 그것의 투영 사이의 거리를 최소화하는 것이다.PCA는 저차원 평면을 찾고, 거리를 최소화하며 특징값 스케일링도 필요하죠!PCA (Principal Component Analysis)에 관한 설명 중 올바른 것을 고르시오:PCA는 데이터를 투영하고자 하는 저차원 평면을 찾는다.올바른 설명입니다. PCA는 데이터를 가장 잘 설명할 수 있는 저차원 평면(또는 하이퍼플레인)을 찾는 방법입니다. 이 평면은 데이터의 분산을 최대화하는 방향들로 정의됩니다.PCA에서는 평균 정규화가 필..

인공지능/공부 2024.05.27

모두를 위한 머신러닝 13주차 - 차원줄이기

Q. 다음 문장의 빈칸에 적절한 용어를 생각해 보세요."자동차의 성능을 나타내는 수십 가지의 특징들 중에서 20가지를 고려하면 데이터는 20차원의 벡터로 표현된다. 이처럼 높은 차원의 데이터는 계산하는 데 시간이 많이 걸릴 뿐만 아니라 사람이 쉽게 이해할 수 있도록 시각화하는 것도 어렵다. 높은 차원의 데이터를 원래 데이터의 특성을 크게 변화시키지 않으면서 낮은 차원의 벡터로 표현하고자 하는 기술을 ( 차원 줄이기(Dimensionality Reduction) )라고 한다."1차시 - 차원 줄이기의 목적 높은 차원의 데이터를 낮은 차원 데이터로 바꾸는 것 -> 차원 줄이기   차원 줄이기는 비지도 학습 중 한가지 이다.데이터들의 상관관계가 높아야 압축할 수 있다. redundant 가 높다!소수점이 생략..

인공지능/공부 2024.05.27

준비중 - Counterfactual Mix-Up for Visual Question Answering - 리뷰 - 준비중

https://ieeexplore.ieee.org/document/10214215 Counterfactual Mix-Up for Visual Question AnsweringCounterfactuals have been shown to be a powerful method in Visual Question Answering in the alleviation of Visual Question Answering’s unimodal bias. However, existing counterfactual methods tend to generate samples that are not diverse or require auxiliieeexplore.ieee.org음 일단 이건 코드가 안보이네요더보기최근 인공지능 ..

진행 예정 - COFFEE: Boost Your Code LLMs by Fixing Bugs with Feedback - 리뷰 및 진행해보기 - 진행 예정

https://arxiv.org/abs/2311.07215 Coffee: Boost Your Code LLMs by Fixing Bugs with FeedbackCode editing is an essential step towards reliable program synthesis to automatically correct critical errors generated from code LLMs. Recent studies have demonstrated that closed-source LLMs (i.e., ChatGPT and GPT-4) are capable of generating correctivearxiv.orghttps://huggingface.co/collections/DLI-Lab/c..

Ever-Evolving Memory by Blending and Refining the Past - 리뷰 및 진행해보기 - 아직 코드 X

https://arxiv.org/abs/2403.04787 Ever-Evolving Memory by Blending and Refining the PastFor a human-like chatbot, constructing a long-term memory is crucial. However, current large language models often lack this capability, leading to instances of missing important user information or redundantly asking for the same information, thereby dimiarxiv.org https://linnk.ai/insight/%EC%9D%B8%EA%B3%B5%E..

Tuning Large Multimodal Models for Videos using Reinforcement Learningfrom AI Feedback 리뷰 및 진행해보기 - 코드 X

https://arxiv.org/abs/2402.03746 Tuning Large Multimodal Models for Videos using Reinforcement Learning from AI FeedbackRecent advancements in large language models have influenced the development of video large multimodal models (VLMMs). The previous approaches for VLMMs involved Supervised Fine-Tuning (SFT) with instruction-tuned datasets, integrating LLM with visual encoarxiv.orghttps://githu..

NLP Python - BERT for Question Answering, Tokenizer, Evaluate(f1 score)

일단 BERT의 구조부터 한번 상기시키고 가겠습니다.더보기BERT(Bidirectional Encoder Representations from Transformers)는 Google AI에서 개발한 자연어 처리 모델로, 트랜스포머(Transformer) 아키텍처를 기반으로 합니다. BERT는 문맥을 양방향으로 이해할 수 있는 사전 훈련된 모델로, 다양한 NLP 작업에서 뛰어난 성능을 보입니다. BERT의 기본 구조에 대해 자세히 설명하겠습니다.BERT의 기본 구조BERT는 트랜스포머 인코더(Transformer Encoder)만으로 구성된 모델입니다. 트랜스포머 아키텍처는 인코더-디코더 구조로 이루어져 있지만, BERT는 인코더 부분만을 사용합니다. 주요 구성 요소는 다음과 같습니다:입력 임베딩(Inpu..

생성형 인공지능 입문 - 12주차 퀴즈

다음 문장의 빈칸에 들어갈 가장 적절한 단어를 고르시오.“FID (Fréchet Inception Distance)는 생성된 이미지와 실제 이미지의 _________를 측정하는 지표로, 낮을수록 더 좋은 품질을 의미함”하나를 선택하세요.1.특징 분포의 차이2.해상도 차이3.색상 일치도4.질감차이오 첫번째 문제는 11주차 내용이네요...?“FID (Fréchet Inception Distance)는 생성된 이미지와 실제 이미지의 _____를 측정하는 지표로, 낮을수록 더 좋은 품질을 의미함”이 문장에서 FID가 무엇을 측정하는지 설명하는 데 가장 적절한 단어를 고르는 것이 목표입니다.선택지 분석특징 분포의 차이: FID는 생성된 이미지와 실제 이미지의 특징 분포의 차이를 측정합니다. 이는 이미지의 통계적 ..

인공지능/공부 2024.05.20

생성형 인공지능 12주차 - 분산 기반 영상 생성

1차시 - 영상 생성 동작 및 데모잠복 - latentVAE + U-net(노이즈 제거에 좋다) + BERTQKV가 트랜스포머 기반이라는 것을 포현해준다. - 트랜스포머 기반으로 한 u-netConditioning에 언어 모델이 들어간다. BERT,GPT 등등...모델 로드하는 과정이다.프롬포트를 바꾸면 계속 다른 사진이 나온다.리소스 문제가 있긴 하지만 그래도 퀄리티가 매우 좋아졌다. 2차시 - 영상 생성 동작 2 DALL E 제로샷 러닝, 생성 - 한 번도 보여주지 않았다.원샷 - 한 번은 샘플을 보여준다.학습에는 엄청난 양의 데이터를 사용했다.한 번도 본적 없는 텍스트에 대해서도 이미지를 생성한다.파라미터가 너무 많다.256 * 256 을 32*32로 여러개 이미지 토큰(패치)으로 나눈다. coco..

인공지능/공부 2024.05.20
728x90
728x90