인공지능/공부

생성형 인공지능 입문 6주차 퀴즈

이게될까 2024. 4. 10. 23:23
728x90
728x90

1. 다음 문제 중 올바르지 않는 것을 고르시오.


GPT의 장점이 아닌것은?

하나를 선택하세요.
1.자연스러운 텍스트 생성
2.문맥 파악의 다양성
3.대화형 응답 능력
4.빠른 프로토타이핑

음 4번...? 빠르진 않은거 같은데

 

2번 이었네요...? LLM이라서 엄청 느릴 줄 알았는데

GPT(Generative Pre-trained Transformer)의 주요 장점 중 하나는 자연스러운 텍스트 생성, 문맥 파악의 다양성, 대화형 응답 능력입니다. 이 모델은 다양한 자연어 처리 작업에서 뛰어난 성능을 보이며, 특히 대규모 데이터셋을 바탕으로 사전 학습된 후 특정 태스크에 대해 미세 조정될 수 있기 때문에, 자연스러운 언어 생성, 문맥에 기반한 이해, 대화 응답 등에서 강력한 성능을 발휘합니다.

그러나 "빠른 프로토타이핑"은 GPT의 장점으로 보기 어렵습니다. GPT와 같은 대규모 언어 모델은 대량의 데이터에 대한 학습이 필요하며, 높은 컴퓨팅 자원을 요구합니다. 이로 인해 모델 학습 및 미세 조정 과정이 상당한 시간과 자원을 소모할 수 있습니다. 따라서, GPT를 사용한 프로젝트는 빠른 프로토타이핑보다는 상당한 준비와 자원이 필요한 경우가 많습니다.

정답은 4. 빠른 프로토타이핑입니다.

CHAT gpt 또한 4번이라고 하는...

 

2.다음 문제 중 올바르지 않는 것을 고르시오.


미세조정(Fine-Tuning)의 단점이 아닌것은?

하나를 선택하세요.
1.다양한 언어 미지원
2.과적합 가능성
3.Fine-tuning 데이터의 중요성
4.작업에 적합하지 않은 사전 훈련 모델

음 1번....?

1번이네요 ㅎㅎ


미세조정(Fine-Tuning)의 주요 단점으로는 과적합의 가능성, 특정 작업에 적합하지 않은 사전 훈련 모델의 선택, 그리고 Fine-tuning을 위한 데이터의 중요성이 있습니다. 미세조정 과정에서는 사전에 학습된 모델을 특정 작업에 최적화하기 위해 추가 학습을 시키는데, 이때 작업에 충분하고 적합한 데이터가 없거나 모델이 해당 작업에 부적합할 경우, 성능이 기대만큼 나오지 않을 수 있습니다. 또한, 너무 작은 데이터셋으로 미세조정을 할 경우 과적합의 위험이 존재합니다.

하지만 1. 다양한 언어 미지원은 미세조정의 단점으로 보기 어렵습니다. 사실, 미세조정의 단점과는 별개로 대규모 언어 모델은 여러 언어를 지원하는 경우가 많으며, 특히 최근에는 다양한 언어에 대한 지원을 목표로 하는 모델들이 개발되고 있습니다. 다양한 언어 지원 여부는 미세조정의 단점이 아니라 사전 훈련된 모델의 특성이나 범위와 관련이 있습니다.

따라서, 1. 다양한 언어 미지원이 미세조정(Fine-Tuning)의 단점이 아닌 것입니다.

 

3. 다음 문장의 빈칸에 들어갈 가장 적절한 단어를 고르시오.


 휴먼 피드백 학습은 인간의 피드백을 활용하여 _______ 모델을 향상시키는 학습 접근 방식을 나타내며, 이는 _______ 모델”

하나를 선택하세요.
1.인공지능
2.기계학습
3.예측
4.행동적응

인공지능 모델을 향상하는 거니까.....

오 기계학습...... 문제를 진짜....................

계속 이렇게 나오면 기말 잘 볼 자신 없는데

“휴먼 피드백 학습은 인간의 피드백을 활용하여 인공지능 모델을 향상시키는 학습 접근 방식을 나타내며, 이는 인공지능 모델”

이 문장에서는 인간의 직접적인 피드백을 통해 인공지능(AI) 모델의 성능을 향상시키는 접근 방식을 설명하고 있습니다. 휴먼 피드백 학습은 인공지능 모델의 예측, 결정, 행동 등을 개선하기 위해 인간의 평가, 지시, 수정 등의 입력을 받아 모델을 조정합니다. 이러한 접근 방식은 인공지능 모델이 더 정확하고 신뢰할 수 있는 출력을 생성하도록 돕습니다.

따라서 정답은 1. 인공지능입니다.

4. 다음 문제 중 올바르지 않는 것을 고르시오.


Bert의 임베딩이 아닌것은?

하나를 선택하세요.
1.토큰 임베딩
2.세그먼트 임베딩
3.포지션 임베딩
4.알고리즘 임베딩

읭 알고리즘 임베딩이요

BERT 모델에서 사용되는 임베딩 종류에는 토큰 임베딩(Token Embeddings), 세그먼트 임베딩(Segment Embeddings), 그리고 **포지션 임베딩(Position Embeddings)**이 있습니다. 이들은 입력 토큰의 의미, 문장 구분, 문장 내 위치 정보를 모델에 제공하는 역할을 합니다.

4. 알고리즘 임베딩은 BERT 모델에서 사용되는 임베딩의 유형이 아닙니다. 따라서 올바르지 않은 선택지는 4번입니다.

 

5. 다음 문장의 빈칸에 들어갈 가장 적절한 단어를 고르시오.


“ Interactive GPT Model은 사용자와의 실시간 ______을 통해 모델을 개선하고 _______를 더 효과적으로 충족시키기 위해 인간 피드백을 활용하는 기계 학습 모델”

하나를 선택하세요.
1.연결작용, 속도 요구
2.상호작용, 사용자 요구
3.감정작용, 기대요구
4.정보작용, 효율성 요구

오.... 상호작용, 사용자 요구 ! 2번 !

Interactive GPT Model은 사용자와의 상호작용을 통해 진행되며, 이를 통해 모델의 개선과 사용자의 요구사항을 더 효과적으로 충족시킬 목적으로 설계되었습니다. 따라서 빈칸에 들어갈 가장 적절한 단어는 2. 상호작용, 사용자 요구 입니다.





어우

 

 

 

728x90