반응형

소프트웨어 1020

CoV:Chain-of-Verification Reduces Hallucination in Large Language Models - 논문 리뷰

https://arxiv.org/abs/2309.11495 Chain-of-Verification Reduces Hallucination in Large Language ModelsGeneration of plausible yet incorrect factual information, termed hallucination, is an unsolved issue in large language models. We study the ability of language models to deliberate on the responses they give in order to correct their mistakes. We developarxiv.org https://aclanthology.org/2024.fi..

CoD - Chain of Draft: Thinking Faster by Writing Less - 논문 리뷰

https://arxiv.org/abs/2502.18600 Chain of Draft: Thinking Faster by Writing LessLarge Language Models (LLMs) have demonstrated remarkable performance in solving complex reasoning tasks through mechanisms like Chain-of-Thought (CoT) prompting, which emphasizes verbose, step-by-step reasoning. However, humans typically employ a more effarxiv.org 논문에서는 효율성을 엄청 중요시하게 생각하빈다.CoT와 Token Count는 엄청 차이나지만..

시험 공부 겸 정리하는 곳 - LVLM

Video LLM은 짧은 비디오에 대한 캡셔닝, 질문응답, 장면 요약 등의 작업에서는 준수한 성능을 보이지만, 여전히 긴 비디오 처리, 시계열 추론, 객체 단위 정밀 인식, 실시간 대응 측면에서는 한계를 드러낸다. Seq2Time은 절대 시간 표현의 일반화 실패 문제를 해결하기 위해 상대 위치 토큰을 도입하여 시계열 데이터를 효과적으로 정렬하고, 다양한 길이의 영상에서도 시간 표현의 일반화를 가능하게 했다. DynFocus는 질문과 정합성이 높은 프레임을 선택하고 나머지는 희소 인코딩으로 처리함으로써, 효율성과 정밀도의 균형을 맞춘다. VideoTree는 시각 정보를 계층화하여 질문과 연관된 프레임만을 추출하고, reasoning 연쇄 구조에 따라 재정렬된 캡션을 문서화하여 LLM 입력으로 활용함으로써 ..

인공지능/공부 2025.04.21

CAN LLMS EXPRESS THEIR UNCERTAINTY? AN EMPIRICAL EVALUATION OF CONFIDENCE ELICITATION IN LLMS - 논문 리뷰

https://openreview.net/pdf?id=gjeQKFxFpZ https://arxiv.org/abs/2306.13063 Can LLMs Express Their Uncertainty? An Empirical Evaluation of Confidence Elicitation in LLMsEmpowering large language models to accurately express confidence in their answers is essential for trustworthy decision-making. Previous confidence elicitation methods, which primarily rely on white-box access to internal model in..

Open Grounded Planning: Challenges and Benchmark Construction - 논문 리뷰

https://github.com/Shiguang-Guo/Open-Grounded-Planning GitHub - Shiguang-Guo/Open-Grounded-PlanningContribute to Shiguang-Guo/Open-Grounded-Planning development by creating an account on GitHub.github.com https://arxiv.org/abs/2406.02903 Open Grounded Planning: Challenges and Benchmark ConstructionThe emergence of large language models (LLMs) has increasingly drawn attention to the use of LLMs f..

GritLM 코드 까보기, 진행해보기

2025.02.25 - [인공지능/논문 리뷰 or 진행] - GRIT 생성과 Embedding을 동시에 Generative Representational Instruction Tuning - 논문 리뷰 GRIT 생성과 Embedding을 동시에 Generative Representational Instruction Tuning - 논문 리뷰https://arxiv.org/abs/2402.09906 기존 모델들은 생성만 잘하거나, Embedding만 잘 진행하였습니다.그리하여 둘 다 잘 하도록 두개 다 학습을 진행한 GRIT이 등장합니다.생성과 Representation 모두 진행하여 학yoonschallenge.tistory.com gritLM는 임베딩과 generation을 동시에 진행하는 모델이라 코..

파이썬 복습 - Data Frame

df.index # ~ df.keys() #list()df.keys()이렇게 키와 인덱스에도 접근이 가능하다. df에서 인덱스로 접근은 조금 다른 방식으로 진행된다. 넵다 df[0]은 오류가 발생한다.이렇게 진행해야 제대로 된 값을 출력하는 것을 볼 수 있다. 이렇게 key 값으로도 접근이 가능하다. 두 개 이상의 열을 확인할 때는 이중 list를 사용해서 두개 다 표현해준다. 특정 row와 col에 접근할 땐 이렇게 해야 한다. df["age"]=[10,10,10,30,30]이렇게 해서 나이를 추가할 수 있다. 이젠 인덱스를 특정한 열로 변경을 해본다. boolen 값을 이용해 여러개 중 하나만 뽑을 땐 df안에 넣어서 참, 거짓을 활용한다.이런 형식을 통해 출력이 되는 것이다.여기선 df 순서가 좀 ..

언어/Python 2025.04.11

ATP-LLaVA: Adaptive Token Pruning for Large Vision Language Models - 논문 리뷰

https://arxiv.org/abs/2412.00447 ATP-LLaVA: Adaptive Token Pruning for Large Vision Language ModelsLarge Vision Language Models (LVLMs) have achieved significant success across multi-modal tasks. However, the computational cost of processing long visual tokens can be prohibitively expensive on resource-limited devices. Previous methods have identified rarxiv.org Pruning은 모델에 쓸모 없는 파라미터를 버리기 위해 하..

728x90
728x90