반응형

전체 글 906

Editing Large Language Models: Problems, Methods, and Opportunities - 논문 리뷰

https://arxiv.org/abs/2305.13172 Editing Large Language Models: Problems, Methods, and OpportunitiesDespite the ability to train capable LLMs, the methodology for maintaining their relevancy and rectifying errors remains elusive. To this end, the past few years have witnessed a surge in techniques for editing LLMs, the objective of which is to efficientlarxiv.org 이 논문은 새로운 정보를 반영하지 못 하는 LLM의 단점을..

FreshLLMs: Refreshing Large Language Models with Search Engine Augmentation - 논문 리뷰

https://arxiv.org/abs/2310.03214 FreshLLMs: Refreshing Large Language Models with Search Engine AugmentationMost large language models (LLMs) are trained once and never updated; thus, they lack the ability to dynamically adapt to our ever-changing world. In this work, we perform a detailed study of the factuality of LLM-generated text in the context of answeringarxiv.org검색을 통해 LLM의 최신 정보 미달을 해결하..

A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity - 논문 리뷰

https://arxiv.org/abs/2302.04023 A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and InteractivityThis paper proposes a framework for quantitatively evaluating interactive LLMs such as ChatGPT using publicly available data sets. We carry out an extensive technical evaluation of ChatGPT using 23 data sets covering 8 different common NLP application taskarx..

Language Models of Code are Few-Shot Commonsense Learners

https://arxiv.org/abs/2210.07128 Language Models of Code are Few-Shot Commonsense LearnersWe address the general task of structured commonsense reasoning: given a natural language input, the goal is to generate a graph such as an event -- or a reasoning-graph. To employ large language models (LMs) for this task, existing approaches ``serialize'arxiv.org이 모델은 명확하게 들어오지 않네요...?  COCOGEN은 구조적 상식(re..

How Can We Know What Language Models Know? - 논문 리뷰

https://arxiv.org/abs/1911.12543 How Can We Know What Language Models Know?Recent work has presented intriguing results examining the knowledge contained in language models (LM) by having the LM fill in the blanks of prompts such as "Obama is a _ by profession". These prompts are usually manually created, and quite possibly sub-oarxiv.orghttps://github.com/WooooDyy/LLM-Agent-Paper-List?tab=readm..

Eliciting Latent Predictions from Transformers with the Tuned Lens - 논문 리뷰

https://arxiv.org/abs/2303.08112 Eliciting Latent Predictions from Transformers with the Tuned LensWe analyze transformers from the perspective of iterative inference, seeking to understand how model predictions are refined layer by layer. To do so, we train an affine probe for each block in a frozen pretrained model, making it possible to decode everyarxiv.org 기존의 Logit Lens 방식은 Transformer의 출력..

SelfIE 주간 세미나 발표

슬라이드 내용 여기 보이는 그림은 입력 문장 '지구상에서 가장 높은 산의 고도'가 모델에 주입되었을 때, 각 레이어가 정보를 처리하는 과정을 시각화한 것입니다.Layer 1에서는 단순히 단어 수준의 기본 정보를 처리하며, '산'이나 '지구'와 같은 핵심 개념들이 나타납니다. 이후 Layer 2에서는 문맥을 반영하여 더 복잡한 정보를 추출하며, '지구상에서 가장 높은 산'과 같은 문장이 형성됩니다. 마지막으로, Layer L에서는 최종적으로 '에베레스트 산의 고도는 8,848.86m'라는 구체적인 답변이 생성됩니다.SelfIE의 핵심 혁신은 모델의 내부 임베딩을 자연어로 해석함으로써, 모델이 단순히 결과를 산출하는 것을 넘어 내부적으로 어떻게 추론했는지를 투명하게 설명할 수 있다는 점에 있습니다. 이를 통..

인공지능/XAI 2024.11.25

SelfIE : 세미나 발표 준비

드디어 내일 세미나 발표라 준비해보겠습니다. 그림을 보시면, 입력 문장인 '지구상에서 가장 높은 산의 고도'라는 문장이 모델에 들어갔을 때, 각 레이어가 어떤 정보를 처리하는지 시각적으로 표현되고 있습니다.Layer 1은 단순히 단어 수준의 정보를 처리하며, '산'이나 '지구'와 같은 기본 개념이 나타납니다.Layer 2로 가면서 문맥에 따라 더 복잡한 정보를 추출하며, '지구상에서 가장 높은 산'과 같은 문장이 형성됩니다.마지막으로, Layer L에서는 최종적으로 '에베레스트 산의 고도는 8,848.86m'라는 구체적인 답변을 생성합니다.이 기술의 독창성은 모델의 내부 임베딩을 활용하여 모델의 추론 과정을 자연어로 설명할 수 있다는 점에 있습니다. 이를 통해 모델이 단순히 결과를 산출하는 것이 아니라,..

인공지능/XAI 2024.11.24

Patchscopes: A Unifying Framework for Inspecting Hidden Representations of Language Models - 논문리뷰

https://arxiv.org/abs/2401.06102 Patchscopes: A Unifying Framework for Inspecting Hidden Representations of Language ModelsUnderstanding the internal representations of large language models (LLMs) can help explain models' behavior and verify their alignment with human values. Given the capabilities of LLMs in generating human-understandable text, we propose leveraging the modarxiv.org 이 방식은 출력을..

Emergent Linguistic Structure in Artificial Neural Networks Trained by Self-Supervision - 논문 리뷰

https://www.pnas.org/doi/10.1073/pnas.1907367117 이 논문은 Self-supervised learning을 통해 BERT가 학습하는데 구조적 의미를 잘 파악하고 학습하는 것인지 의문을 가지고 작성한 논문입니다.어텐션 프로브와 구조적 프로브를 사용하여, BERT가 문법적 관계와 계층적 구조를 학습하는 능력을 평가했으며, 그 결과 BERT가 이러한 의미를 효과적으로 이해하고 있음을 확인했습니다.다만, BERT가 학습한 언어 구조가 정확히 어떤 방식으로 구성되는지 완전히 설명하기 어렵고, 인간의 언어 습득 방식과는 다소 차이가 있다는 한계가 있습니다.    논문은 '자기 지도 학습(Self-Supervision)을 통해 훈련된 인공 신경망에서 나타나는 언어 구조'를 다룹니..

728x90
728x90