반응형

소프트웨어 944

자연어 처리 Python 실습 - 한국어 관계 추출

Introduction Chapter 7. 자연어 이해(NLU) Task 강의의 한국어 관계 추출 Task 실습 강의입니다. 이번 실습에서는 (1) KLUE-BERT base 모델을 KLUE 벤치마크 데이터셋의 KLUE-RE 데이터셋으로 파인튜닝하고, (2) 파인튜닝한 모델의 관계 추출 작업에 대한 성능과 결과를 분석해보겠습니다. !pip install transformers 1. KLUE-BERT 모델 불러오기 오늘 실습에는 대표적인 한국어 BERT 모델인 KLUE-BERT 모델을 사용합니다! KLUE-BERT 모델은 벤치마크 데이터인 KLUE에서 베이스라인으로 사용되었던 모델로,모두의 말뭉치, CC-100-Kor, 나무위키, 뉴스, 청원 등 문서에서 추출한 63GB의 데이터로 학습된 모델입니다. Mo..

자연어 처리 python 실습 - 한국어 자연어 추론 Task 실습

한국어 자연어 추론 Task 실습 Introduction Chapter 7. 자연어 이해(NLU) Task 강의의 한국어 자연어 추론 Task 실습 강의입니다. 이번 실습에서는 (1) SKTBrain이 공개한 KoBERT를 KLUE 벤치마크 데이터셋의 KLUE-NLI 데이터셋으로 파인튜닝하고, (2) 파인튜닝한 모델의 자연어 추론 작업에 대한 성능과 결과를 분석해보겠습니다. 자연어 추론(NLI) 작업의 목표는 가설 문장과 전제 문장 간의 관계를 추론하는 것입니다. 전제가 주어지면 NLI 모델은 가설이 참(entailment), 거짓(contradiction) 또는 미결정(neutral)인지 결정합니다. 이 작업은 RTE(Recognizing Textual Entailment)라고도 합니다. !pip in..

자연어 이해 NLU - Relation Extraction Task 관계 추출

트리플 데이터 - 객체 3개가 연결되어있다. subject에 대한 정보를 달라고 했을 때 object나 relation을 꺼내서 주면 된다. 1. 심볼릭 구조를 뉴럴넷에 활용한 것이다. 2. 로직 룰을 뉴럴넷에 활용했다. 관계 추출 작업은 구조적인 작업이므로 CNN도 활용 가능하다. CNN - 구획적으로 특징을 뽑는다. 임베딩을 이미지처럼 주어주면 CNN이 특징을 잘 뽑는다. 두 엔티티가 관계 정보만 학습한다. 집중해야할 엔티티를 명시적으로 표시해줬다. 학습 초기의 어려운 문제는 노이즈다! 데이터의 학습 순서를 바꾸어 효율적인 학습을 할 것이다. 쉬운 예제를 통해 일반적인 파라미터를 만든 후 어려운 관계 추출을 학습시켜 파라미터를 단단하게 만든다. 한국어로 관계추출 할 경우 이 것을 활용하면 된다.

생성형 인공지능 입문 6주차 퀴즈

1. 다음 문제 중 올바르지 않는 것을 고르시오. GPT의 장점이 아닌것은? 하나를 선택하세요. 1.자연스러운 텍스트 생성 2.문맥 파악의 다양성 3.대화형 응답 능력 4.빠른 프로토타이핑 음 4번...? 빠르진 않은거 같은데 2번 이었네요...? LLM이라서 엄청 느릴 줄 알았는데 GPT(Generative Pre-trained Transformer)의 주요 장점 중 하나는 자연스러운 텍스트 생성, 문맥 파악의 다양성, 대화형 응답 능력입니다. 이 모델은 다양한 자연어 처리 작업에서 뛰어난 성능을 보이며, 특히 대규모 데이터셋을 바탕으로 사전 학습된 후 특정 태스크에 대해 미세 조정될 수 있기 때문에, 자연스러운 언어 생성, 문맥에 기반한 이해, 대화 응답 등에서 강력한 성능을 발휘합니다. 그러나 "빠..

인공지능/공부 2024.04.10

자연어 처리 온라인 강의 - Machine Translation with RNN

RNN - 인코더와 디코더로 구성되어 있다. 인코더 인풋 - 번역해야될 문장 디코더 출력 - 번역 된 문장 입력이 들어갈 수록 정보가 사라져서 마지막 입력의 영향이 커지게 된다. -> 정보 병목 현상 -> attention 등장 attention - 딥러닝을 비틀어서 효율적으로 학습시킨 경험적 모델 어떤 단어를 집중해야 하는지 나온다. transformer 계열의 모든 모델에서 attention 개념이 사용된다. 인코더 모델과 디코더 모델의 어텐션을 계산해서 아웃풋을 계산한다. 디코더의 시작값과 인코더 모든 값을 내적하면 인코더 인풋 개수만큼 스칼라 값이 나온다. -> soft max를 취하면 1이 되면 확률 분포가 나온다. = attention distribution을 얻는다. 유사도를 얻게 된다-> ..

자연어 처리 과제 2 - CNN text classification 감성 분석

기본적인 구조입니다. 전처리를 진행해야죠 # total text tokens total_words = [] for words in words_list: total_words.extend(words) from collections import Counter c = Counter(total_words) # 빈도를 기준으로 상위 10000개의 단어들만 선택 max_features = 10000 common_words = [word for word, count in c.most_common(max_features)] print(common_words.index('행')) print(common_words[248]) 토큰화해서 제일 많이 나온 단어 10000개만 사용할 겁니다. 확인해보면 행이란 단어는 248번째..

생성형 인공지능 입문 6주차 5차시 - 휴먼 피드백 학습

학습을 어떤 형식으로 하느냐! GPT의 등장으로 휴먼 피드백 러닝의 적용이 시작되었다. 사람이 model의 출력이 정확한지 판단하는 것! 리워드를 올리기 위해 행동하는 강화학습! 사람의 피드백이 편향을 가지지 않도록 학습해야된다. LLM- 완성이라는 것이 없다. -> 계속 학습하면서 발전해나간다. - 돈이 한도 없이 들어간다 이 것은 논문으로 작성할 수 있는 것이 아니라 시도, 경험을 통해 노하우를 얻는 것이다.

인공지능/공부 2024.04.10

생성형 인공지능 입문 6주차 4차시 - interactive GPT model (대화형 GPT 모델)

interactive GPT model = Chat GPT vision에서는 컴퓨팅 파워가 더 강력해야 한다. 실시간 상호작용과 사용자 중심! 보통 supervised learning에서는 보상이 없다. 강화학습을 사용하는 것이다. 파인튜닝에는 강화학습과 지도학습이 둘 다 들어있다! PPO - 강화학습 쪽 기본 개념 현재 실시간 정보는 아직 해결하지 못한 문제이다. 심심이와 같은 모델이다.

인공지능/공부 2024.04.10

생성형 인공지능 입문 6주차 3차시 - Fine tuning(미세조정)

전이학습의 한 형태로 볼 수 있다!! GPT가 나오기 전에도 사용되던 기술이다. 다른 목적에 사용하려고 새로운 데이터를 주입시키는 것이다. 감성 분석 - 트위터 => 텍스터에 긍, 부정, 다양한 감정이 붙는다. or 감성 분석을 통한 추천 ㅋ 개발 시간도 빨라진다. 언어 모델을 사용하자는 기업은 늘어난다. -> FINE Tuning을 통해 적은 리소스 사용 overfitting - 데이터는 적은데 일반적인 성능을 높이려고 하면 잘 일어난다. 적합한 모델을 선택하는 능력도 필요하다. - 관련있는 데이터로 학습된 모델을 선택해야한다.

인공지능/공부 2024.04.10

생성형 인공지능 6주차 2차시 - GPT model

GPT 와 ELMo! 텍스트 생성, 번역, 요약 등 다양한 역할이 가능하다. Unsupervised learning -> 코퍼스를 정제는 하되 라벨링을 하진 않는다. fine turning -> 물어본 것에 대한 정해진 답을 정해준다. BERT - incorder에 집중 Decorder 만 있다. - 학습시킬 땐 인코더가 있다. -> 학습 완료 후 디코더만 사용한다. 기본적 구조는 Transformer, 대용량 feedforward이다. GPT 모델 구조는 어떻게 되어있나? 비지니스 모델에서는 출력 표현에 노하우가 많이 들어간다. 자연스러운 텍스트 생성 - fine turning을 잘 한다. interactive - 대화형 응답 능력 : 각자에게 특화되어 대화를 한다. transfer learning을 ..

인공지능/공부 2024.04.10
728x90
728x90