인공지능/자연어 처리

Chat GPT 통한 자연어 처리 중간고사 OX, 빈칸 퀴즈 문제

이게될까 2024. 4. 16. 22:43
728x90
728x90

너무 말도 안되는 문제들은 다 빼버렸습니다...

빈칸 문제

  1. NLP는 ____, 기계학습, 언어학, 사회과학/인문학과 같은 다양한 학문이 융합된 분야입니다.
    정답: 인공지능
  1. 문장 "One morning I shot an elephant in my pajamas"에서 "shot"는 ____의 문제를 예시로 들 수 있습니다.
    정답: 모호성
  2. NLP의 주요 작업 중 하나는 ___인식이며, 이는 텍스트에서 특정 정보를 식별하는 작업입니다.
    정답: 개체명
  3. 텍스트 분석, 음성 인식, 대화 번역은 모두 NLP에서 ____를 위한 대표적인 예입니다.
    정답: 표현

OX 문제

  1. NLP에서 "processing as representation"은 언어를 컴퓨터와의 상호작용을 위해 전달하는 과정을 말한다. (O/X)
    정답: O
  2. "I made her duck"는 다양한 의미를 가질 수 있으며, 이는 NLP에서 해결해야 할 중요한 문제 중 하나입니다. (O/X)
    정답: O
  3. 자연어 처리에서, 모든 단어는 하나의 고유한 의미만을 가지고 있다. (O/X)
    정답: X
  1. NLP는 오직 컴퓨터 과학자만을 위한 연구 분야이다. (O/X)
    정답: X

빈칸 문제

  1. 분산 표현에서 단어의 의미는 문맥의 분포에 따라 인코딩되며, 비슷한 문맥에서 나타나는 단어들은 비슷한 표현을 가집니다. 이를 '__ 가설'이라고 합니다.
    정답: 분포
  2. TF-IDF는 단어의 중요도를 평가할 때 사용되는 가중치로, '__ 빈도-역 문서 빈도'를 의미합니다.
    정답: 용어
  3. 벡터 공간에서 두 벡터 간의 유사도를 측정하는 방법 중 하나는 '__ 유사도'라고 합니다.
    정답: 코사인
  4. 단어 임베딩에서, 단어를 예측하는 문제를 프레임워크 내에서 저차원의 벡터로 표현하는 방법을 '__ 벡터'라고 합니다.
    정답: 밀집
  1. Word2vec, GloVe 같은 단어 임베딩 모델은 일반적으로 '__' 데이터로 훈련됩니다.
    정답: 대규모 텍스트

OX 문제

  1. 벡터의 차원 축소는 단어 간의 관계를 더 잘 이해할 수 있게 해줍니다. (O/X)
    정답: O
  2. 모든 단어 임베딩은 같은 방식으로 훈련됩니다. (O/X)
    정답: X
  3. IDF 값은 문서 집합 전체에서 특정 단어가 나타나는 빈도에 기반합니다. (O/X)
    정답: O
  4. 코사인 유사도는 두 벡터 간의 각도를 기반으로 유사도를 측정합니다. (O/X)
    정답: O
  5. 'Skipgram' 모델은 주변 단어를 예측하기 위해 중심 단어를 사용합니다. (O/X)
    정답: O
  6. 벡터 표현은 언어의 구문적 구조를 전혀 반영하지 못합니다. (O/X)
    정답: X

빈칸 문제

  1. 단어 임베딩에서, 단어의 의미는 단어가 나타나는 __의 분포에 따라 인코딩됩니다.
    정답: 문맥
  2. FastText 모델은 단어를 __로 나누어 각 부분의 임베딩을 합하여 단어의 벡터를 생성합니다.
    정답: n그램
  3. 어텐션 메커니즘은 입력 벡터를 중요도에 따라 가중치를 부여하여 __ 벡터를 생성합니다.
    정답: 가중합
  4. BERT는 트랜스포머 구조를 사용하여 __ 언어 모델링을 수행합니다.
    정답: 마스크
  5. 양방향 RNN(BiRNN)은 과거와 미래의 문맥을 모두 고려하여 단어의 __를 생성합니다.
    정답: 벡터
  6. ELMo는 각 단어의 __에 따라 그 의미를 동적으로 생성하는 모델입니다.
    정답: 문맥
  7. 문장 분류 작업에서 문장의 벡터는 문장에 있는 모든 단어의 임베딩을 __하여 얻을 수 있습니다.
    정답: 합산

OX 문제

  1. 모든 단어 임베딩은 문맥에 독립적인 단어의 의미를 제공합니다. (O/X)
    정답: X
  2. FastText는 훈련 데이터에 없는 단어에 대해서도 임베딩을 생성할 수 있습니다. (O/X)
    정답: O
  3. 어텐션은 문장 내 중요하지 않은 단어를 완전히 무시할 수 있습니다. (O/X)
    정답: X
  4. BERT 모델은 다음 문장 예측을 위한 훈련도 포함합니다. (O/X)
    정답: O
  5. 양방향 RNN은 한 방향으로만 문맥 정보를 처리합니다. (O/X)
    정답: X
  6. ELMo 임베딩은 특정 NLP 태스크에 최적화되어 학습됩니다. (O/X)
    정답: O
  7. 모든 단어 임베딩은 동일한 차원의 벡터로 표현됩니다. (O/X)
    정답: X (다양한 모델과 설정에 따라 차원 수가 다를 수 있습니다.)

빈칸 문제

  1. 심층 학습에서 데이터의 입력부터 출력까지의 계산 과정을 ___이라고 합니다.
    정답: 전방 전파
  2. 손실 함수를 최소화하기 위해 사용되는 알고리즘으로, 반복적으로 가중치를 업데이트하는 방법은 ___입니다.
    정답: 경사 하강법
  3. 신경망에서 가중치의 업데이트가 이루어지는 단계를 ___라고 합니다.
    정답: 역전파
  4. 신경망의 각 뉴런에 적용되는 함수로, 비선형성을 도입하는 역할을 하는 것은 ___ 함수입니다.
    정답: 활성화
  5. 확률적으로 데이터의 일부만 사용하여 가중치를 업데이트하는 기법을 ___라고 합니다.
    정답: 확률적 경사 하강법
  6. 여러 층의 퍼셉트론을 사용하여 구성된 신경망을 ___이라고 합니다.
    정답: 다층 퍼셉트론
  7. 분류 작업에 사용되는 함수로, 출력값을 확률로 변환해주는 함수는 ___입니다.
    정답: 소프트맥스

OX 문제

  1. 역전파 과정에서는 손실 함수의 그래디언트를 계산하여 가중치를 업데이트합니다. (O/X)
    정답: O
  2. 모든 활성화 함수는 선형 함수이다. (O/X)
    정답: X
  3. 경사 하강법은 항상 전역 최소값을 보장한다. (O/X)
    정답: X
  4. 소프트맥스 함수는 출력값의 총합이 1이 되도록 만들어줍니다. (O/X)
    정답: O
  5. 다층 퍼셉트론은 하나의 은닉층만을 가지고 있다. (O/X)
    정답: X (여러 개의 은닉층을 가질 수 있습니다)
  6. 전방 전파는 네트워크를 통해 입력에서 출력으로 데이터를 처리하는 과정입니다. (O/X)
    정답: O
  7. 확률적 경사 하강법은 매 업데이트마다 전체 데이터를 사용한다. (O/X)
    정답: X (일부 데이터만 사용합니다)

빈칸 문제

  1. 심층 학습에서, 각 층의 출력을 다음 층의 입력으로 전달하는 과정을 ___이라고 합니다.
    정답: 전방전파
  2. 학습 과정에서 가중치를 업데이트하기 위해 사용되는 기법으로, 오차의 그래디언트에 따라 가중치를 조정하는 방식은 ___입니다.
    정답: 역전파
  3. 소규모 데이터 그룹을 사용하여 가중치를 업데이트하는 방식을 ___이라고 합니다.
    정답: 미니배치
  4. 기울기의 이전 이동량을 고려하여 가중치 업데이트에 동력을 부여하는 기법을 ___이라고 합니다.
    정답: 모멘텀
  5. 데이터 세트의 특성 분포를 각 배치마다 일정하게 유지시키는 정규화 방법을 ___이라고 합니다.
    정답: 배치 정규화
  6. 학습 초기에 가중치를 설정할 때 사용되는 초기화 방식 중, ReLU 활성화 함수에 적합한 방식은 ___ 초기화입니다.
    정답: He
  7. 모델이 학습 데이터에 과적합되는 것을 막기 위해 학습 과정에서 일부 뉴런을 임의로 비활성화하는 기법을 ___이라고 합니다.
    정답: 드롭아웃

OX 문제

  1. 미니배치 방식은 전체 데이터를 사용하여 한 번에 가중치를 업데이트합니다. (O/X)
    정답: X (미니배치는 작은 데이터 그룹을 사용합니다.)
  2. 모멘텀은 경사 하강법에 비해 일반적으로 더 빠르게 수렴합니다. (O/X)
    정답: O
  3. 배치 정규화는 각 레이어마다 입력을 정규화하여 내부 공변량 변화를 줄입니다. (O/X)
    정답: O
  4. Xavier 초기화는 모든 활성화 함수에 적합합니다. (O/X)
    정답: X (주로 Sigmoid나 Tanh 함수에 적합)
  5. 드롭아웃은 학습 시 일부 뉴런의 출력을 0으로 설정하여 과적합을 방지합니다. (O/X)
    정답: O
  6. 모든 심층 학습 모델은 배치 정규화를 필요로 합니다. (O/X)
    정답: X (필요에 따라 사용됩니다.)
  7. 가중치 감소는 학습률과 독립적으로 가중치의 크기를 제어하여 과적합을 방지할 수 있습니다. (O/X)
    정답: O

빈칸 문제

  1. CNN을 사용한 텍스트 분류에서, 입력 데이터의 단어들이 벡터로 변환되는 층을 ___ 층이라고 합니다.
    정답: 임베딩
  2. CNN에서 여러 개의 필터를 적용한 후, 가장 큰 값을 선택하는 과정을 ___이라고 합니다.
    정답: 맥스 풀링
  3. CNN에서 텍스트 처리에 사용되는 필터의 한 유형은 ___ 차원의 벡터로 표현됩니다.
    정답: K
  4. CNN에서 학습 데이터의 특징을 추출하는 층을 ___ 층이라고 합니다.
    정답: 컨볼루션
  5. CNN 모델에서 모든 입력을 모든 출력에 연결하는 층을 ___ 층이라고 합니다.
    정답: 완전 연결
  6. 텍스트 분류 문제에서 사용되는 CNN 모델 중 하나는 ___이며, 이는 여러 채널의 특징 맵을 결합합니다.
    정답: CNN-멀티 채널
  7. 텍스트 분류에서 CNN이 입력 데이터의 위치에 덜 민감하게 반응하도록 하는 기법을 ___이라고 합니다.
    정답: 패딩

OX 문제

  1. CNN을 통해 텍스트 데이터는 주로 위치 불변성을 유지하기 위해 처리됩니다. (O/X)
    정답: O
  2. 모든 CNN 모델은 동일한 수의 필터와 커널 크기를 사용합니다. (O/X)
    정답: X
  3. CNN의 컨볼루션 층은 입력 데이터의 모든 공간 정보를 보존합니다. (O/X)
    정답: X
  4. 텍스트 분류에서 CNN은 주로 단어 n-gram 특징을 추출하는 데 사용됩니다. (O/X)
    정답: O
  5. CNN에서는 학습 과정에서 필터가 데이터의 중요 특성을 학습합니다. (O/X)
    정답: O
  6. 패딩은 입력 데이터 주변을 특정 값으로 채워 네트워크의 입력 크기를 조정합니다. (O/X)
    정답: O
  7. 모든 CNN 아키텍처는 텍스트와 이미지 데이터에 동일하게 적용됩니다. (O/X)
    정답: X (특정 데이터 유형에 맞게 조정될 수 있습니다)

빈칸 문제

  1. RNN은 ___ 데이터를 처리하기 위해 설계된 딥러닝 모델입니다.
    정답: 연속적인 시퀀스
  2. RNN의 중요한 특징 중 하나는 과거 정보를 '___'이라고 하는 내부 상태에 저장한다는 것입니다.
    정답: 메모리
  3. RNN은 각 시점에서 입력과 이전 상태를 결합하여 새로운 상태를 생성하는데, 이 때 사용되는 함수는 '___' 함수입니다.
    정답: 활성화
  4. 머신 번역과 같은 많은 대응 관계 문제에서 RNN은 '___'로 분류됩니다.
    정답: 다대다 (many-to-many)
  5. RNN을 여러 층으로 쌓은 구조를 '___'라고 합니다.
    정답: 다층 RNN
  6. RNN의 한계를 극복하기 위해 고안된, 중요 정보를 선택적으로 통과시키는 구조는 '___'입니다.
    정답: LSTM
  7. '___'는 한 단계의 디코딩에서 가장 가능성 있는 단어를 선택하는 디코딩 방식입니다.
    정답: 그리디 디코딩

OX 문제

  1. RNN은 변수 길이의 입력 시퀀스를 처리할 수 있습니다. (O/X)
    정답: O
  2. 모든 RNN 구조는 장기 의존성 문제를 효과적으로 처리할 수 있습니다. (O/X)
    정답: X (일반 RNN은 장기 의존성 문제를 겪을 수 있습니다)
  3. LSTM은 RNN의 한 변형으로, 장기 기억을 유지하는 데 특화되어 있습니다. (O/X)
    정답: O
  4. 다층 RNN은 입력 시퀀스에서 더 복잡한 특징을 학습할 수 있습니다. (O/X)
    정답: O
  5. 양방향 RNN은 과거와 미래 데이터를 모두 고려하여 현재 상태를 예측합니다. (O/X)
    정답: O
  6. 머신 번역에서 사용되는 기본적인 RNN 모델은 출발 문장을 인코딩 한 후 목표 문장을 생성합니다. (O/X)
    정답: O
  7. 빔 서치 디코딩은 그리디 디코딩보다 번역의 정확성을 향상시키지 못합니다. (O/X)
    정답: X (빔 서치는 더 나은 성능을 제공할 수 있습니다)

빈칸 문제

  1. 텍스트 요약 작업에서 입력 텍스트 ( x )를 받아서, 주요 정보만을 담은 더 짧은 요약 ( y )를 작성하는 작업을 ___이라고 합니다.
    정답: 텍스트 요약
  2. Transformer 모델은 RNN 구조를 사용하지 않고, ___ 메커니즘만을 사용하여 문장을 인코딩 및 디코딩합니다.
    정답: 어텐션
  3. Transformer에서 위치 정보를 다루는 방법으로, 각 단어에 위치 정보를 더하는 방식을 ___이라고 합니다.
    정답: 위치 인코딩
  4. Transformer 모델의 입력 단어는 순차적으로 처리되지 않고, 모든 단어가 한 번에 처리되어 학습 시간을 단축시킵니다. 이러한 특징은 ___ 때문에 가능합니다.
    정답: 자기 주의(self-attention)
  5. 텍스트 요약에서, 원본 텍스트에서 중요한 부분을 그대로 추출하여 요약하는 방식을 ___ 요약이라고 합니다.
    정답: 추출적
  6. ___ 요약은 새로운 문장을 생성하여 요약하는 방식으로, 자연어 생성 기술을 사용합니다.
    정답: 생성적
  7. Transformer 내에서, 여러 개의 어텐션 메커니즘을 병렬로 처리하는 구조를 ___ 어텐션이라고 합니다.
    정답: 멀티 헤드

OX 문제

  1. 모든 Transformer 모델은 인코더와 디코더 구조를 사용합니다. (O/X)
    정답: O
  2. Transformer는 위치 인코딩 없이도 문장의 위치 정보를 효과적으로 처리할 수 있습니다. (O/X)
    정답: X (위치 인코딩이 필요함)
  3. 추출적 요약은 원본 텍스트에서 문장을 재구성하거나 변형하지 않습니다. (O/X)
    정답: O
  4. 생성적 요약은 추출적 요약보다 처리 과정이 더 복잡합니다. (O/X)
    정답: O
  5. 멀티 헤드 어텐션은 하나의 어텐션보다 여러 관점에서 정보를 처리할 수 있습니다. (O/X)
    정답: O
  6. Transformer 모델은 RNN 모델보다 학습 속도가 느립니다. (O/X)
    정답: X (더 빠름)
  7. 위치 인코딩은 단어의 순서와 상대적인 위치 정보를 모델에 제공합니다. (O/X)
    정답: O
728x90