반응형

2024/03/27 5

자연어 처리 문장 embedding 만들기 - GPT

GPT - Transformer의 디코더 부분을 사용 ELMo랑 비슷하다. RNN 기반 -> 병렬화가 안된다. 확률값이 최대가 되도록 파라미터를 조절한다. Multi head -> 병렬로 진행하여 각각으로 확인하겠다. GPT에서는 Multihead Attention은 없고 masked만 있다. 소프트 맥스 후 arguemax하면 가장 높은 확률의 단어를 뽑아낼 수 있다. 유사도 측정할 때 순서도 바꿔서 학습한다. 여러개중에서 고를 때 모두 비교 후 소프트맥스하여 높은 값을 고른다. Zero shot 알려주지 않고 테스트 하기

강화학습 과제 1 최종 - N Step TD 구현하기

일단 주어진 코드입니다. import random import numpy as np class GridWorld(): def __init__(self): self.x=0 self.y=0 def step(self, a): if a == 0: self.move_left() elif a == 1: self.move_up() elif a == 2: self.move_right() elif a == 3: self.move_down() reward = -1 done = self.is_done() return (self.x, self.y), reward, done def move_right(self): self.y += 1 if self.y > 3: self.y = 3 def move_left(self): self...

인공지능/공부 2024.03.27

강화 학습 복습 2

1강 - 강화학습이란 강화학습 = Trial and Error을 통해 학습하는 방법 순차적 의사 결정 문제 = 시간 순서대로 주어진 상황에서 목적에 도달하기 위한 행동을 취하고, 그에 변화한 상황을 근거로 다시 행동을 취한다. 보상 == 피드백 = 의사 결정을 했을 때 잘 했는지 못했는지를 알려주는 수치(스칼라 값) 보상은 지연될 수 있으며, 어떤 행동으로 인해 보상으로 주어졌는지 판단을 나중에 할 수 있다. 강화학습 목적 = 누적 보상의 최대화 에이전트 == 학습자 = 현재상황 St에서 At를 결정한다. 그럼 그에 따른 보상 R(t+1)을 받고 다음 상태S(t+1)의 정보를 받는다. 환경 = 에이전트를 제외한 모든 요소 강화 학습의 장점 - 병렬성, 자가학습 2강 - 마르코프 결정 프로세스 마르코프 프..

인공지능/공부 2024.03.27

생성형 인공지능 퀴즈 4

1. 다음 문제 중 올바르지 않는 것을 고르시오. 자기주의(Self-Attention)의 이점 아닌것은? 하나를 선택하세요. 1.장거리 종속성 파악 2.병렬처리 3.확장성 4.이중 모드 애플리케이션 으음...? 병렬 처리가 된다고 했고, 장거리 종속성 파악도 된다고 했고, 병렬 처리== 이중 모드 애플리케이션 아닌가? "이중 모드 애플리케이션"은 자기 주의(Self-Attention)의 이점과는 직접적인 연관이 없는 선택지입니다. 자기 주의 메커니즘의 주된 이점은 다음과 같습니다: 장거리 종속성 파악: Self-Attention은 입력 시퀀스 내의 임의의 두 위치 간의 직접적인 관계를 모델링할 수 있기 때문에, 문장이나 시퀀스 내에서 멀리 떨어진 요소들 간의 관계를 학습할 수 있습니다. 이는 특히 긴 문..

인공지능/공부 2024.03.27
728x90
728x90