전체 글 623

feature 조절을 통한 LLM 변경 - Mapping the Mind of a Large Language Model - 리뷰

흥미로운 주제가 하나 던져져서,,, 자료 조사 조금 더 해보고 진행해 보겠습니다.https://www.anthropic.com/news/mapping-mind-language-model Mapping the Mind of a Large Language ModelWe have identified how millions of concepts are represented inside Claude Sonnet, one of our deployed large language models. This is the first ever detailed look inside a modern, production-grade large language model.www.anthropic.com  더보기1. 서론 (Introd..

생성형 인공지능 입문 13주차 - Transformer 기반 action 생성

이번 시간은 13주차 입니다. 13주차 강의는 총 5개의 차시로 구성되어 있습니다. 이번 강의에서는 강화학습 리뷰, 판단 트랜스포머, 행동 생성용 트랜스포머, 셰프 로봇의 행동 생성, AI 기반 행동 생성을 다룹니다. 강의를 통해서 여러분은 강화학습, 트랜스포머 기반 강화학습, 행동 생성용 트랜스포머를 설명할 수 있고, 생성형 AI기반 요리로봇, AI기반 행동 생성 기법을 설명할 수 있게 됩니다. 아래 영상의 재생 버튼을 클릭하여 학습을 시작하세요.1차시 - 강화 학습 리뷰강화 학습을 마지막 단에 넣는다.비지도 학습을 통해 추론과 생성을 진행할 수 있다.정책을 따라 리워드를 받고 학습하는 강화학습!SART를 하나의 튜플로 만들어서 확인한다.보상의 중요도가 엄청 높았다. 궁극적으로 많은 리워드를 받는 것이..

인공지능/공부 2024.05.27

모두를 위한 머신러닝 13주차 퀴즈

PCA에 관한 다음 설명 중에서 올바른 것을 모두 고르시오.하나 이상을 선택하세요.PCA는 데이터를 투영하고자 하는 저차원 평면을 찾는다.PCA에서는 평균 정규화가 필요하지만 특징값 스케일링은 필요하지 않다.좋은 PCA 투영은 데이터와 그것의 투영 사이의 거리를 최소화하는 것이다.PCA는 저차원 평면을 찾고, 거리를 최소화하며 특징값 스케일링도 필요하죠!PCA (Principal Component Analysis)에 관한 설명 중 올바른 것을 고르시오:PCA는 데이터를 투영하고자 하는 저차원 평면을 찾는다.올바른 설명입니다. PCA는 데이터를 가장 잘 설명할 수 있는 저차원 평면(또는 하이퍼플레인)을 찾는 방법입니다. 이 평면은 데이터의 분산을 최대화하는 방향들로 정의됩니다.PCA에서는 평균 정규화가 필..

인공지능/공부 2024.05.27

모두를 위한 머신러닝 13주차 - 차원줄이기

Q. 다음 문장의 빈칸에 적절한 용어를 생각해 보세요."자동차의 성능을 나타내는 수십 가지의 특징들 중에서 20가지를 고려하면 데이터는 20차원의 벡터로 표현된다. 이처럼 높은 차원의 데이터는 계산하는 데 시간이 많이 걸릴 뿐만 아니라 사람이 쉽게 이해할 수 있도록 시각화하는 것도 어렵다. 높은 차원의 데이터를 원래 데이터의 특성을 크게 변화시키지 않으면서 낮은 차원의 벡터로 표현하고자 하는 기술을 ( 차원 줄이기(Dimensionality Reduction) )라고 한다."1차시 - 차원 줄이기의 목적 높은 차원의 데이터를 낮은 차원 데이터로 바꾸는 것 -> 차원 줄이기   차원 줄이기는 비지도 학습 중 한가지 이다.데이터들의 상관관계가 높아야 압축할 수 있다. redundant 가 높다!소수점이 생략..

인공지능/공부 2024.05.27

준비중 - Counterfactual Mix-Up for Visual Question Answering - 리뷰 - 준비중

https://ieeexplore.ieee.org/document/10214215 Counterfactual Mix-Up for Visual Question AnsweringCounterfactuals have been shown to be a powerful method in Visual Question Answering in the alleviation of Visual Question Answering’s unimodal bias. However, existing counterfactual methods tend to generate samples that are not diverse or require auxiliieeexplore.ieee.org음 일단 이건 코드가 안보이네요더보기최근 인공지능 ..

진행 예정 - COFFEE: Boost Your Code LLMs by Fixing Bugs with Feedback - 리뷰 및 진행해보기 - 진행 예정

https://arxiv.org/abs/2311.07215 Coffee: Boost Your Code LLMs by Fixing Bugs with FeedbackCode editing is an essential step towards reliable program synthesis to automatically correct critical errors generated from code LLMs. Recent studies have demonstrated that closed-source LLMs (i.e., ChatGPT and GPT-4) are capable of generating correctivearxiv.orghttps://huggingface.co/collections/DLI-Lab/c..

Ever-Evolving Memory by Blending and Refining the Past - 리뷰 및 진행해보기 - 아직 코드 X

https://arxiv.org/abs/2403.04787 Ever-Evolving Memory by Blending and Refining the PastFor a human-like chatbot, constructing a long-term memory is crucial. However, current large language models often lack this capability, leading to instances of missing important user information or redundantly asking for the same information, thereby dimiarxiv.org https://linnk.ai/insight/%EC%9D%B8%EA%B3%B5%E..

Tuning Large Multimodal Models for Videos using Reinforcement Learningfrom AI Feedback 리뷰 및 진행해보기 - 코드 X

https://arxiv.org/abs/2402.03746 Tuning Large Multimodal Models for Videos using Reinforcement Learning from AI FeedbackRecent advancements in large language models have influenced the development of video large multimodal models (VLMMs). The previous approaches for VLMMs involved Supervised Fine-Tuning (SFT) with instruction-tuned datasets, integrating LLM with visual encoarxiv.orghttps://githu..

C언어 영상처리 - DPCM

뭉쳐있는 영역은 비슷한 픽셀을 가진다! -> 차이만 전달해서 용량을 줄여보자!제일 왼쪽 값에서 차이를 구하고, 그걸 5구간으로 나눠서 용량을 줄인다!코드에서 q가 0 ~ q-1까지를 하나로 본다는 뜻 입니다.더보기중간 값(128)이 있다는 가정 하에 차이(-28)를 전송 정보 손실 없는 압축 == 무손실 압축 여기는 무손실 압축 ( q가 없다) 비슷한 값이므로 확률적으로 예측한다. 데이터를 깎는다 ==Quantization = 양자화데이터를 깎아서 적은 양의 데이터를 주고 받게 한다.이 작업이 있으면 손실 압축 (q) 양자화가 커지면 데이터 손실도 늘어난다.Prediction Error까지는 무손실 압축Quantization은 손실 압축 - 정수 단위로 바뀐다. 손실이 일어난다. 왜 두번째는 0이 아닌가..

언어/C 2024.05.23

NLP Python - BERT for Question Answering, Tokenizer, Evaluate(f1 score)

일단 BERT의 구조부터 한번 상기시키고 가겠습니다.더보기BERT(Bidirectional Encoder Representations from Transformers)는 Google AI에서 개발한 자연어 처리 모델로, 트랜스포머(Transformer) 아키텍처를 기반으로 합니다. BERT는 문맥을 양방향으로 이해할 수 있는 사전 훈련된 모델로, 다양한 NLP 작업에서 뛰어난 성능을 보입니다. BERT의 기본 구조에 대해 자세히 설명하겠습니다.BERT의 기본 구조BERT는 트랜스포머 인코더(Transformer Encoder)만으로 구성된 모델입니다. 트랜스포머 아키텍처는 인코더-디코더 구조로 이루어져 있지만, BERT는 인코더 부분만을 사용합니다. 주요 구성 요소는 다음과 같습니다:입력 임베딩(Inpu..

728x90
728x90