반응형

2024/11 75

A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity - 논문 리뷰

https://arxiv.org/abs/2302.04023 A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and InteractivityThis paper proposes a framework for quantitatively evaluating interactive LLMs such as ChatGPT using publicly available data sets. We carry out an extensive technical evaluation of ChatGPT using 23 data sets covering 8 different common NLP application taskarx..

Language Models of Code are Few-Shot Commonsense Learners

https://arxiv.org/abs/2210.07128 Language Models of Code are Few-Shot Commonsense LearnersWe address the general task of structured commonsense reasoning: given a natural language input, the goal is to generate a graph such as an event -- or a reasoning-graph. To employ large language models (LMs) for this task, existing approaches ``serialize'arxiv.org이 모델은 명확하게 들어오지 않네요...?  COCOGEN은 구조적 상식(re..

How Can We Know What Language Models Know? - 논문 리뷰

https://arxiv.org/abs/1911.12543 How Can We Know What Language Models Know?Recent work has presented intriguing results examining the knowledge contained in language models (LM) by having the LM fill in the blanks of prompts such as "Obama is a _ by profession". These prompts are usually manually created, and quite possibly sub-oarxiv.orghttps://github.com/WooooDyy/LLM-Agent-Paper-List?tab=readm..

Eliciting Latent Predictions from Transformers with the Tuned Lens - 논문 리뷰

https://arxiv.org/abs/2303.08112 Eliciting Latent Predictions from Transformers with the Tuned LensWe analyze transformers from the perspective of iterative inference, seeking to understand how model predictions are refined layer by layer. To do so, we train an affine probe for each block in a frozen pretrained model, making it possible to decode everyarxiv.org 기존의 Logit Lens 방식은 Transformer의 출력..

SelfIE 주간 세미나 발표

슬라이드 내용 여기 보이는 그림은 입력 문장 '지구상에서 가장 높은 산의 고도'가 모델에 주입되었을 때, 각 레이어가 정보를 처리하는 과정을 시각화한 것입니다.Layer 1에서는 단순히 단어 수준의 기본 정보를 처리하며, '산'이나 '지구'와 같은 핵심 개념들이 나타납니다. 이후 Layer 2에서는 문맥을 반영하여 더 복잡한 정보를 추출하며, '지구상에서 가장 높은 산'과 같은 문장이 형성됩니다. 마지막으로, Layer L에서는 최종적으로 '에베레스트 산의 고도는 8,848.86m'라는 구체적인 답변이 생성됩니다.SelfIE의 핵심 혁신은 모델의 내부 임베딩을 자연어로 해석함으로써, 모델이 단순히 결과를 산출하는 것을 넘어 내부적으로 어떻게 추론했는지를 투명하게 설명할 수 있다는 점에 있습니다. 이를 통..

인공지능/XAI 2024.11.25

SelfIE : 세미나 발표 준비

드디어 내일 세미나 발표라 준비해보겠습니다. 그림을 보시면, 입력 문장인 '지구상에서 가장 높은 산의 고도'라는 문장이 모델에 들어갔을 때, 각 레이어가 어떤 정보를 처리하는지 시각적으로 표현되고 있습니다.Layer 1은 단순히 단어 수준의 정보를 처리하며, '산'이나 '지구'와 같은 기본 개념이 나타납니다.Layer 2로 가면서 문맥에 따라 더 복잡한 정보를 추출하며, '지구상에서 가장 높은 산'과 같은 문장이 형성됩니다.마지막으로, Layer L에서는 최종적으로 '에베레스트 산의 고도는 8,848.86m'라는 구체적인 답변을 생성합니다.이 기술의 독창성은 모델의 내부 임베딩을 활용하여 모델의 추론 과정을 자연어로 설명할 수 있다는 점에 있습니다. 이를 통해 모델이 단순히 결과를 산출하는 것이 아니라,..

인공지능/XAI 2024.11.24

Patchscopes: A Unifying Framework for Inspecting Hidden Representations of Language Models - 논문리뷰

https://arxiv.org/abs/2401.06102 Patchscopes: A Unifying Framework for Inspecting Hidden Representations of Language ModelsUnderstanding the internal representations of large language models (LLMs) can help explain models' behavior and verify their alignment with human values. Given the capabilities of LLMs in generating human-understandable text, we propose leveraging the modarxiv.org 이 방식은 출력을..

Emergent Linguistic Structure in Artificial Neural Networks Trained by Self-Supervision - 논문 리뷰

https://www.pnas.org/doi/10.1073/pnas.1907367117 이 논문은 Self-supervised learning을 통해 BERT가 학습하는데 구조적 의미를 잘 파악하고 학습하는 것인지 의문을 가지고 작성한 논문입니다.어텐션 프로브와 구조적 프로브를 사용하여, BERT가 문법적 관계와 계층적 구조를 학습하는 능력을 평가했으며, 그 결과 BERT가 이러한 의미를 효과적으로 이해하고 있음을 확인했습니다.다만, BERT가 학습한 언어 구조가 정확히 어떤 방식으로 구성되는지 완전히 설명하기 어렵고, 인간의 언어 습득 방식과는 다소 차이가 있다는 한계가 있습니다.    논문은 '자기 지도 학습(Self-Supervision)을 통해 훈련된 인공 신경망에서 나타나는 언어 구조'를 다룹니..

ChatGPT로 면접 준비하기

https://chatgpt.com/g/g-bkU61gv9b-myeonjeobwang-daegieob-gonggieob-sagieob-moyi-myeonjeob ChatGPT - 면접왕 - 대기업 / 공기업 / 사기업 모의 면접!AI와 면접연습 해보세요! 실시간 피드백 및 점수를 통해 더 나은 면접을 준비할 수 있습니다. #네이버 #카카오 #쿠팡 #배달의민족 #당근마켓 #라인 #토스 #삼성전자 #SK #LGchatgpt.com여기서 면접 준비도 가능합니다!여기선 제 자기소개서나 연구 계획서 기반으로 답변을 말하면 알아서 평가 및 어떻게 고치면 좋겠다고 말해주네요이젠 전공 면접에 대해서도 조금 정리가 필요해서 정리도 시켜봤습니다.2024.11.22 - [기타] - 면접 준비 - 컴퓨터 구조, 운영체제, 컴..

기타 2024.11.23

Visualizing and Measuring the Geometry of BERT - 논문 리뷰

https://arxiv.org/abs/1906.02715 Visualizing and Measuring the Geometry of BERTTransformer architectures show significant promise for natural language processing. Given that a single pretrained model can be fine-tuned to perform well on many different tasks, these networks appear to extract generally useful linguistic features. A natarxiv.org 이 논문은 BERT의 내부 임베딩 공간을 분석하여 대형 언어 모델(LLM)을 해석하려는 연구입니..

728x90
728x90